JP7074056B2 - 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP7074056B2
JP7074056B2 JP2018516900A JP2018516900A JP7074056B2 JP 7074056 B2 JP7074056 B2 JP 7074056B2 JP 2018516900 A JP2018516900 A JP 2018516900A JP 2018516900 A JP2018516900 A JP 2018516900A JP 7074056 B2 JP7074056 B2 JP 7074056B2
Authority
JP
Japan
Prior art keywords
image
display
unit
subject
display mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018516900A
Other languages
English (en)
Other versions
JPWO2017195514A1 (ja
Inventor
良平 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017195514A1 publication Critical patent/JPWO2017195514A1/ja
Application granted granted Critical
Publication of JP7074056B2 publication Critical patent/JP7074056B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Description

本開示は、画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。さらに詳細には、例えばネットワークを介した通信により画像や音声を送信し、コミュニケーションを実行する画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。
ネットワークを介した双方向通信により画像や音声を送受信するテレビ会議システム等の双方向コミュニケーションシステムは、様々な分野で利用されている。
昨今では、高精細の大型ディスプレイが多く利用され、また、ネットワークを介して通信される画像、音声の品質も向上しており、ディスプレイに表示された遠隔のユーザとのコミュニケーションを、同じ会議室で行っているような感覚で行うことが可能となっている。
さらに、特許文献1(特開2010-171695号公報)には、コミュニケーションを行う人物等のユーザを表示部(ディスプレイ)に表示する際、等身大の表示を行うことで、臨場感のある対話を可能としたシステムを開示している。
表示部に表示する人物の大きさを実際の大きさで表示することで、表示部に表示されるコミュニケーション相手が、あたかもその場にいるような感覚で対話を行うことを可能としたシステムである。
しかし、特許文献1に記載の技術は、等身大表示を行うものの、例えば表示部(ディスプレイ)の形、ディスプレイの置かれている場所、あるいは表示部を見る視聴者の目線の位置等については考慮していない。
例えば、テーブルの上に置かれているディスプレイと、床に置かれているディスプレイに同じユーザ画像を表示すると、表示ユーザの顔の位置が大きく異なることになる。
また、視聴ユーザが立っている場合と、座っている場合とでは、視聴ユーザの眼線の位置が大きく異なってくる。
このように、表示部の高さや、視聴ユーザの目の位置等を考慮しないと、視聴ユーザと表示ユーザの目線の高さが大きく異なる場合が発生する。この結果、例えば、視聴ユーザは、上を見上げて、表示ユーザの顔を見て会話をしなければならないといった事態が生じ、スムーズなコミュニケーションが実行できなくなる等の問題が発生する。
特開2010-171695号公報
本開示は、例えば、上述の問題点に鑑みてなされたものであり、例えば、通信ネットワークを介したコミュニケーションシステムにおいて利用される表示部(ディスプレイ)に被写体の表示を行う場合、表示部のサイズや載置場所の高さ等の表示部情報や、表示被写体(表示ユーザ)の情報、さらに、視聴者の目線位置等の視聴者情報を考慮して、被写体の表示態様を制御して、違和感を減少させた自然な被写体表示を可能とする画像処理装置、画像処理システム、および画像処理方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理装置にある。
さらに、本開示の第2の側面は、
ネットワークにより接続された第1画像処理装置と第2画像処理装置との間で画像送受信を実行する画像処理システムであり、
前記第1画像処理装置は、
表示部の表示領域情報を取得する表示領域情報取得部と、
前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理システムにある。
さらに、本開示の第3の側面は、
画像処理装置において実行する画像処理方法であり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行する画像処理方法にある。
さらに、本開示の第4の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
具体的には、表示領域情報取得部が、表示部の表示領域情報を取得し、画像取得部が、表示部に表示する被写体を含む入力画像を取得する。さらに、画像情報解析部が、入力画像解析処理を実行し、表示態様決定部が、解析結果を適用して表示部に表示する被写体の表示態様を決定し、決定した表示態様に従って生成した出力画像を表示部に表示する。実物大表示を行った場合の被写体欠落部に対する処理や、視線位置の修正等を実行し、自然な被写体表示を実行する。
本構成により、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
双方向コミュニケーションシステムについて説明する図である。 画像処理装置のハードウェア構成例について説明する図である。 画像処理装置の機能構成について説明する図である。 表示領域情報について説明する図である。 体部位検出の例について説明する図である。 被写体画像を3Dモデル背景画像に重畳表示した画像の例について説明する図である。 画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 体部位検出例について説明する図である。 被写体の身長測定例について説明する図である。 被写体の実物大(等身大)表示例について説明する図である。 被写体の実物大(等身大)表示例について説明する図である。 表示領域上端と被写体身長との比較処理について説明する図である。 表示領域上端と被写体身長との比較処理について説明する図である。 被写体の欠落部位について説明する図である。 被写体と視聴ユーザの視点位置の差について説明する図である。 被写体と視聴ユーザの視点位置の差について説明する図である。 被写体の実物大表示例について説明する図である。 被写体の実物大表示例について説明する図である。 被写体の実物大表示例について説明する図である。 被写体と視聴ユーザの視点位置を近づけた画像の表示例について説明する図である。 被写体と視聴ユーザの視点位置を近づけた画像の表示例について説明する図である。 被写体の欠落部位を隠した画像の表示例について説明する図である。 被写体の欠落部位を隠した画像の表示例について説明する図である。 構図を優先した画像の表示例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、画像処理システム、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.双方向コミュニケーション処理の概要について
2.画像処理装置のハードウェア構成例について
3.画像処理装置の機能的構成例について
4.画像処理装置の実行する処理シーケンスと具体的表示例について
5.本開示の構成のまとめ
[1.双方向コミュニケーション処理の概要について]
まず、双方向コミュニケーション処理の概要について説明する。
図1は、双方向コミュニケーションシステム構成の一例を示す図である。
図1には、
(1)第1ロケーション
(2)第2ロケーション
これらの2つのロケーションの構成例を示している。
これら2つのロケーションは、各々離れた遠隔地にあり、各ロケーションにいるユーザ同士が、双方向コミュニケーションを行う。各ロケーションのシステム同士がネットワーク30を介して接続されている。
第1ロケーションには、ユーザAがいる。
また、第1ロケーションには、表示部(ディスプレイ)11、カメラ12、音声入出力部(マイク&スピーカ)13a~bを備えた画像処理装置10がある。
一方、第2ロケーションには、ユーザBがいる。
また、第2ロケーションには、表示部(ディスプレイ)21、カメラ22、音声入出力部(マイク&スピーカ)23a~bを備えた画像処理装置20がある。
第1ロケーションのカメラ12は、第1ロケーションのユーザAを撮影し、ネットワーク30を介して第2ロケーションの画像処理装置20に送信する。
第2ロケーションの画像処理装置20は、第1ロケーションの画像処理装置10から送信されたユーザAの画像を表示部21に表示する。
この表示処理に際して、表示ユーザであるユーザAの実物大(等身大)表示を行う。
画像処理装置20は、この実物大表示処理に際して、表示部21の大きさや、表示部21の置かれた高さ、表示ユーザの表示可能な部位(撮影画像に含まれる被写体画像の部位)、さらに、表示ユーザと視聴ユーザ(ユーザB)の視点位置(目線の高さ)の差異等を考慮した表示制御を実行する。
なお、第1ロケーションの音声入出力部(マイク&スピーカ)13a,bは、第1ロケーションのユーザAの発話等の音声を取得し、取得音声データが、ネットワーク30を介して第2ロケーションの画像処理装置20に送信される。
第2ロケーションの画像処理装置20は、第1ロケーションからの受信音声を、音声入出力部(マイク&スピーカ)23a,bを介して出力する。
一方、第2ロケーションのカメラ22aは、第2ロケーションのユーザBを撮影し、ネットワーク30を介して第1ロケーションの画像処理装置10に送信する。
第1ロケーションの画像処理装置10は、第2ロケーションの画像処理装置20から送信されたユーザBの画像を表示部11に表示する。
この表示処理に際して、表示ユーザであるユーザBの実物大(等身大)表示を行う。
画像処理装置10は、この実物大表示処理に際して、表示部11の大きさや、表示部11の置かれた高さ、表示ユーザの表示可能な部位(撮影画像に含まれる被写体画像の部位)、さらに、表示ユーザと視聴ユーザ(ユーザA)の視点位置(目線の高さ)の差異等を考慮した表示制御を実行する。
なお、第2ロケーションの音声入出力部(マイク&スピーカ)23a,bは、第2ロケーションのユーザBの発話等の音声データを取得し、取得音声データが、ネットワーク30を介して第1ロケーションの画像処理装置10に送信される。
第1ロケーションの画像処理装置10は、第2ロケーションからの受信音声を、音声入出力部(マイク&スピーカ)13a,bを介して出力する。
このような処理により、第1ロケーションのユーザAと、第2ロケーションのユーザBは、遠隔地のユーザの画像と発話を表示部、スピーカを介して取得し、双方向コミュニケーションを行うことが可能となる。
このような双方向コミュニケーション処理において、表示部11,21に表示されるユーザの表示画像として、実物大の画像を用い、さらに、視聴ユーザの視線位置に応じた表示制御等を行うことで、コミュニケーション相手が、その場にいるような臨場感を持ってコミュニケーションを行うことが可能となる。
[2.画像処理装置のハードウェア構成例について]
次に、図2を参照して図1に示す画像処理装置10や、画像処理装置20のハードウェア構成例について説明する。
図2には、図1に示す画像処理装置10や、画像処理装置20に相当する画像処理装置100のハードウェア構成例を示している。
画像処理装置100は、本実施形態において、情報処理装置として構成され得る。画像処理装置100は、具体的には、PC(Personal Computer)、タブレットPC、スマートフォン、タブレット端末、ゲーム機器、プロジェクタ、ポータブルプロジェクタ等の情報処理装置であってもよい。
同図において、画像処理装置100は、コントローラ101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インタフェース105、及び、これらを互いに接続するバス104を備える。
コントローラ101は、必要に応じてRAM103等に適宜アクセスし、各種演算処理を行いながら画像処理装置100の各ブロック全体を統括的に制御する。コントローラ101は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等であってもよい。ROM102は、コントローラ101に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM103は、コントローラ101の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一時的に保持する。
入出力インタフェース105には、撮像部106、表示部(ディスプレイ)107、操作受付部108、記憶部109、通信部110等が接続される。なお、入出力インタフェース105は、これらの各要素の他、USB(Universal Serial Bus)端子やIEEE端子等を介して外部周辺機器と接続可能に構成されてもよい。また、入出力インタフェース105には、これら各要素の他、図示しない撮像部等が接続されていてもよい。
撮像部106は、例えば、図1に示すユーザA、ユーザB等、双方向コミュニケーションを実行する被写体を撮影するカメラであり、例えばビデオカメラによって構成される。
なお、撮像部106による撮影画像は、撮像部106側の表示部107の表示領域107aの位置やサイズを解析するための情報としても利用される。
表示部(ディスプレイ)107は、例えばLCD(Liquid Crystal Display)、OLED(OrganicLight Emitting Diode)、CRT(Cathode Ray Tube)、プロジェクタ等を用いた表示デバイスである。なお、表示部(ディスプレイ)107には、画像が表示される表示領域107aが画定される。
操作受付部108は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置である。操作受付部108がタッチパネルである場合、そのタッチパネルは表示部(ディスプレイ)107と一体となり得る。
記憶部109、例えばHDD(Hard Disk Drive)や、フラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。当該記憶部109には、上記OSや各種アプリケーション、各種データが記憶される。記憶部109は、また、後述する入力画像や、画像情報、生成した出力画像群等の記憶領域としても利用される。
通信部110は、例えばEthernet(登録商標)用のNIC(Network Interface Card)であり、ネットワークを介した通信処理を担う。
以上のようなハードウェア構成の画像処理装置100は、以下のような機能的構成を有する。
[3.画像処理装置の機能的構成例について]
次に、図3を参照して画像処理装置100の機能的構成例について説明する。
図3は、画像処理装置100の機能的構成を示すブロック図である。同図に示すように、画像処理装置100は、表示領域情報取得部201と、画像取得部202と、画像情報解析部203と、表示態様決定部204と、出力画像生成部205と、再生部206を備える。
表示領域情報取得部201は、図2に示す画像処理装置100の表示部107の表示領域107a(ディスプレイの画面/プロジェクタの投影面)の仕様、例えば、表示領域107aの縦、横のサイズ、解像度(ピクセル数)、ピクセルピッチ、表示領域107aが存する空間の床、もしくは地面からの表示領域下端までの高さを取得する。
表示領域情報取得部201が取得する表示領域情報の具体例について、図4を参照して説明する。
表示領域情報取得部201は、図4に示すように表示部107について、以下の各情報を取得する。
(a)表示領域横サイズ221、
(b)表示領域縦サイズ222、
(c)床、または地面から、表示領域下端までの高さ223、
(d)解像度224、
(e)ピクセルピッチ225、
なお、これらの仕様が記憶部109や表示部107付属のメモリ等に記録されていれば、そこから、これらの情報を取得としてもよい。これらの情報が記録されていない場合は、撮影部106による表示領域107aの撮影画像を用いて、表示領域107aの仕様を取得してもよい。
画像取得部202は、処理対象の入力画像(表示用画像)を取得する。このときの入力画像は、記憶部109に記録されていた画像、撮影部106が撮影した画像、通信部110を介して遠隔地から送信された映像でもよい。また、入力画像は、被写体人物のみ切り出された画像でもよい。
画像情報解析部203は、体部位検出部203aと被写体情報取得部203bを有し、被写体についての情報を含む入力画像の情報を解析する。体部位検出部203aは、入力画像から、被写体人物の体の部位を検出する。
例えば、図5に示すような頭部、左右の足首などの体部位を検出する。
これらの体部位検出は、入力画像(表示用画像)に含まれる表示ユーザ(被写体)である人体の画像解析いわゆるモーションキャプチャ技術を適用して実行される。
体部位検出部203aは、人体の頭部、手、足等の部位、肘、肩、膝等の関節など、撮影画像に含まれる被写体としての人体を構成する各部位を識別する。
被写体情報取得部203bは、入力画像(表示用画像)に含まれる被写体の領域の検出や、被写体が存する空間の床、地面の検出、あるいは被写体の実際の大きさ等についての解析技術を用いて、被写体の実サイズ(身長)を解析する。
なお、体部位検出部203a、被写体情報取得部203bは入力画像に記録されたメタデータから体部位検出結果、被写体情報を取得してもよい。
表示態様決定部204は、実物大画像生成部204a、最適表示態様決定部204bを有する。
実物大画像生成部204aは、被写体を実物大表示するための画像を生成する。
例えば、表示領域情報取得部201によって取得された表示領域107aの仕様と入力画像の情報とに基づいて、被写体が表示領域107aに実物大で表示されるように入力画像を拡大または縮小し、被写体を実物大表示するための画像データを生成する。
最適表示態様決定部204bは、表示領域仕様取得部201が取得した表示領域107aの仕様や、画像情報解析部203において解析された被写体情報を適用して、予め規定された最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。具体的には、例えば、以下のような判定処理を実行する。
(a)表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理
(b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(c)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
(d)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
最適表示態様決定部204bは、例えば上記(a)~(d)の判定処理を含む最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。具体的には、最適な表示画像のサイズや、表示位置、あるいはマスク処理の要否等を決定する。
なお、具体的処理シーケンスについては、後段においてフローチャートを参照して説明する。
出力画像生成部205は、表示画像サイズ調整部205aと、画像表示位置決定部205bを有する。
表示画像サイズ調整部205aは、最適表示態様決定部204bにおいて決定した最適表示画像の表示を行うための表示画像のサイズ調整を実行する。
最適表示態様決定部204bにおいて決定した最適表示画像が実物大サイズである場合は、実物大画像生成部204aの生成した画像を利用する。
また、最適表示態様決定部204bにおいて決定した最適表示画像が実物大サイズでない場合は、実物大画像生成部204aの生成した画像の縮小、または拡大等を実行して、最適表示態様決定部204bにおいて決定した最適表示画像に適合した画像サイズの表示画像を生成する。
表示位置決定部205bは、最適表示態様決定部204bにおいて決定した最適表示画像の表示を行うための表示画像の表示位置を決定する。
出力画像生成部205は、決定された表示画像サイズや表示位置等に従った出力画像を生成する。入力画像が被写体人物のみ切り出された画像の場合、例えば、平面の静止画や動画、3Dモデル画像を背景画像として、入力画像を前景として重畳して出力画像を生成してもよい。
図6は、表示部107に、3Dモデル画像241を背景として表示し、平面の被写体(表示ユーザ)242を重畳表示した例を示す図である。
再生部206は、例えば、図6に示すような出力画像を再生する。再生部207は、例えば、表示部107によって実現される。
[4.画像処理装置の実行する処理シーケンスと具体的表示例について]
次に、画像処理装置の実行する処理シーケンスと具体的表示例について説明する。
図7、図8に,画像処理装置100の処理シーケンスを説明するフローチャートを示す。
なお、図7、図8に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を持つCPU等を備えたコントローラからなるデータ処理部の制御の下に実行される。
図7以下のフローの各ステップの処理について、順次、説明する。
(ステップS101~S102)
まず、ステップS101~102において、画像処理装置の表示領域情報取得部201が表示部107の表示領域107aに関する情報を取得する。
これは、先に図4を参照して説明した処理であり、表示領域情報取得部201は、図4に示すように表示部107について、以下の各情報を取得する。
(a)表示領域横サイズ221、
(b)表示領域縦サイズ222、
(c)床、または地面から、表示領域下端までの高さ223、
(d)解像度224、
(e)ピクセルピッチ225、
なお、これらの仕様が記憶部109や表示部107付属のメモリ等に記録されていれば、そこから、これらの情報を取得としてもよい。これらの情報が記録されていない場合は、撮影部106による表示領域107aの撮影画像を用いて、表示領域107aの仕様を取得してもよい。
(ステップS103)
次に、ステップS103において、画像取得部102が、表示部107の表示領域107aに表示する入力画像(表示用画像)を取得する。
なお、上記のステップS101~S103の処理順は、特に問わない。
また、ディスプレイなど物理的に壁に設置され固定されている表示領域107を利用する場合、上記のステップS101~S102の表示領域情報取得処理は、表示処理の開始前に一度行うだけでよい。
ただし、例えば、ポータブルプロジェクタなど、表示領域107aが移動する場合、表示領域の縦横の入れ替え、床や地面からの表示領域下端までの高さが変化する可能性がある場合等には、上記のステップS101~S102の表示領域情報取得処理は、随時、定期的に実行する必要がある。
(ステップS104)
続いて、ステップS104において、画像情報解析部203の体部位検出部203aが、入力画像(表示用画像)内の被写体人物の頭部、足首などの部位を検出する。
この処理は、先に図5を参照して説明した処理である。
画像情報解析部203の体部位検出部203aは、入力画像から、被写体人物の体の部位を検出する。例えば、図5に示すような頭部、左右の足首などの体部位を検出する。これらの体部位検出は、入力画像(表示用画像)に含まれる表示ユーザ(被写体)である人体の画像解析いわゆるモーションキャプチャ技術を適用して実行される。
体部位検出部203aは、人体の頭部、手、足等の部位、肘、肩、膝等の関節など、撮影画像に含まれる被写体としての人体を構成する各部位を識別する。
具体的な入力画像(表示用画像)内の被写体に対する体の部位検出処理例を図9に示す。
図9には、以下の3つの体部位検出例を示している。
(1)体部位検出例1
(2)体部位検出例2
(3)体部位検出例3
(1)体部位検出例1は、膝上から上半身の被写体画像が入力画像として入力されている場合の体部位検出例である。
(2)体部位検出例2は、人体全体の被写体画像が入力画像として入力されている場合の体部位検出例である。
(3)体部位検出例3は、首から下の被写体画像が入力画像として入力されている場合の体部位検出例である。
(ステップS105)
続いて、ステップS105において、画像情報解析部203の被写体情報取得部203bが、入力画像内の被写体人物の実サイズ(身長)を測定する。
被写体情報取得部203bは、入力画像(表示用画像)に含まれる被写体の領域の検出や、被写体が存する空間の床、地面の検出、あるいは被写体の実際の大きさ等についての解析技術を用いて、被写体の実サイズ(身長)を解析する。
なお、双方向コミュニケーションシステムにおいて、例えば、被写体側のカメラ(例えば必ず全身が写る広角カメラ等)で画像を撮影するとともに、測定済のデータを画像対応のメタデータとして付加して、撮影画像に併せて送信し、表示処理を実行する装置側で、このメタ情報を利用して被写体実サイズ解析等の処理を行なってもよい。
図10は、ステップS105における被写体情報取得部203bによる被写体身長算出例を示す図である。
被写体情報取得部203bは、まず、ステップS105aにおいて、被写体の設置面(床)を検出する。
その後、ステップS105bにおいて、体部位検出結果を利用して被写体の身長を算出する。具体的には、例えば、頭部~床までの長さを算出する。
(ステップS106)
次に、ステップS106において、表示態様決定部204の実物大画像生成部204aが、表示領域107aのサイズと画像解像度、ピクセルピッチ、被写体人物の実サイズ(身長)等から、被写体を等身大で表示するための実物大表示画像の生成処理を実行する。
図11、図12は、被写体の実物大画像表示例を示す図である。画像サイズ調整部204は、表示領域107aのピクセルピッチpp(mm/pixel)の情報から、被写体が実物大で表示されるように、実物大画像Grの幅(Pwr(pixel))及び高さ(Phr(pixel))のピクセル数を決定する。ピクセルピッチは、表示領域107a固有の値である解像度と表示領域107aのサイズの情報から算出され得る。
図11、図12において、実物大被写体画像の高さである身長をHr(mm)とすると、ピクセル数で、Phr(pixel)と表すものとすると、以下の式(1)が成り立つ。
身長=Hr(mm)=Phr(pixel)×pp(mm/pixel)・・・(1)
なお、図11や図12に示す例は、被写体としての人体の全体が表示領域に表示可能な例である。
実際は、このように被写体全体が表示部に表示可能になるとは限らない。
図8のフローに示すステップS107以下の処理において、最適表示態様決定部204bが、表示領域仕様取得部201が取得した表示領域107aの仕様や、画像情報解析部203において解析された被写体情報を適用して、予め規定された最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。
(ステップS107)
図8のフローに示すステップS107~ステップS109の判定処理は、図3に示す表示態様決定部204の最適表示態様決定部204bが実行する処理である。
最適表示態様決定部204bは、表示領域仕様取得部201が取得した表示領域107aの仕様や、画像情報解析部203において解析された被写体情報を適用して、予め規定された最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。具体的には、例えば、以下のような判定処理を実行する。
(判定a)表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理
(判定b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(判定c)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
(判定d)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
最適表示態様決定部204bは、例えば上記(判定a)~(判定d)の判定処理を含む最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。具体的には、最適な表示画像のサイズや、表示位置、あるいはマスク処理の要否等を決定する。
最適表示態様決定部204bは、まず、ステップS107において、上記(判定a)の判定処理を行なう。すなわち、
(判定a)表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理、
上記判定処理を実行する。
具体的には、表示領域107aの上端が被写体人物の身長より高いか、否かを判定する。なお、表示領域107aの上端の高さとは、表示部の表示画像を見る視聴ユーザのいる床、あるいは地面等からの高さである。
表示領域107aの上端の高さは、表示領域情報取得部201が、ステップS101~S102において取得した情報、すなわち、先に図4を参照して説明した表示領域情報を用いて算出される。
具体的には、図4に示す、
(a)表示領域縦サイズ222と、
(b)床、または地面から、表示領域下端までの高さ223、
上記(a),(b)の合計が、表示領域107aの上端の高さとして算出される。
被写体人物の身長は、ステップS105において画像情報解析部203の被写体情報取得部203bが取得した被写体の身長である。
ステップS107では、
表示領域の上端高さと、
被写体身長、
これらを比較する。すなわち、以下の判定式が成立するか否かを判定する。
表示領域の上端高さ≧被写体身長
上記判定式が成立、すなわち、表示領域の上端高が、被写体身長以上であれば、ステップS107の判定はYesとなり、ステップS108に進む。
一方、上記判定式が不成立、すなわち、表示領域の上端高が、被写体身長未満であれば、ステップS107の判定はNoとなり、ステップS124に進む。
図13は、表示領域上端が被写体身長より高い例を示す図である。
この場合、被写体(表示ユーザ)の顔を含む頭部は、表示領域に全て表示される。なお、表示部に表示される被写体(表示ユーザ)は実物大であり、被写体(表示ユーザ)の高さは、被写体の身長に一致することになる。
一方、図14は、表示領域上端が被写体身長より低い例を示す図である。
この場合、被写体(表示ユーザ)の顔を含む頭部は、少なくともその一部が表示領域に表示できない。
(ステップS108)
ステップS107の判定処理において、表示領域の上端高が、被写体身長以上であれば、ステップS107の判定はYesとなり、ステップS108に進む。
最適表示態様決定部204bは、ステップS108において、上記(判定b)の判定処理を行なう。すなわち、
(判定b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
上記判定処理を実行する。
図15(a)は、被写体人物を実物大表示する際、欠落して表示できない部位がない例を示す図である。
この欠落部分の判定処理は、例えば画像情報解析部203の体部位検出部203aにおいて検出された体部位に基づいて判定することができる。
一方、図15(b)は、被写体人物を実物大表示する際、欠落して表示できない部位がある例を示す図である。
この図15(b)には、例えば画像情報解析部203の体部位検出部203aにおいて、入力画像から検出された体部位として足部分に欠落部位があり、表示できない体の部分が存在すると判定される。
このステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域がないと判定した場合は、ステップS108の判定結果がYesとなり、ステップS109に進む。
一方、欠落領域があると判定した場合は、ステップS108の判定結果がNoとなり、ステップS110に進む。
(ステップS109)
ステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域がないと判定した場合は、ステップS108の判定結果がYesとなり、ステップS109に進む。
最適表示態様決定部204bは、ステップS109において、上記(判定c)の判定処理を行なう。すなわち、
(判定c)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
上記判定処理を実行する。
なお、上記しきい値は、予め規定されたしきい値である。
また、視点位置の差分とは、被写体人物の視点位置と、視聴ユーザの視点位置の高さの差分である。
図16は、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値以下である場合の例を示す図である。
一方、図17は、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が大きく、予め設定したしきい値より大である場合の例を示す図である。
このステップS109において、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値以下であると判定した場合は、ステップS109の判定結果がYesとなり、ステップS121に進む。
一方、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値より大きいと判定した場合は、ステップS109の判定結果がNoとなり、ステップS122に進む。
(ステップS121)
ステップS109において、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値以下であると判定した場合は、ステップS109の判定結果がYesとなり、ステップS121に進む。
ステップS121の処理は、被写体の画像表示処理である。
この処理は、図3に示す出力画像生成部205が実行する。表示画像サイズ調整部205aが、表示態様決定部204において決定した表示態様に従って表示画像サイズを調整し、画像表示位置決定部205bが、表示態様決定部204において決定した表示態様に従って被写体の表示位置を決定して出力画像を生成して表示部に表示する。
ステップS121の処理は、
被写体表示処理-Aであり、
被写体を床から実物大で表示する処理を実行する。
図18~図20は、床からの実物大表示の例を示す図である。なお、被写体を表示する基準となる床は、視聴者側の床である。
図18に示す例は、縦長の表示領域に被写体(表示ユーザ)を実物大表示した例である。視聴ユーザの立っている床面から被写体(表示ユーザ)の頭頂部までの高さは、被写体(表示ユーザ)の身長に相当する高さとなる。
図19に示す例は、横長の表示領域に被写体(表示ユーザ)を実物大表示した例である。視聴ユーザの立っている床面から被写体(表示ユーザ)の頭頂部までの高さは、被写体(表示ユーザ)の身長に相当する高さとなる。
図20に示す例は、図19に示すより小さな横長の表示領域に被写体(表示ユーザ)を実物大表示した例である。視聴ユーザの立っている床面から被写体(表示ユーザ)の頭頂部までの高さは、被写体(表示ユーザ)の身長に相当する高さとなる。
(ステップS122)
一方、ステップS109において、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が大きく、予め設定したしきい値より大きいと判定した場合は、ステップS109の判定結果がNoとなり、ステップS122に進む。
ステップS122の処理は、被写体の画像表示処理である。
この処理は、図3に示す出力画像生成部205が実行する。表示画像サイズ調整部205aが、表示態様決定部204において決定した表示態様に従って表示画像サイズを調整し、画像表示位置決定部205bが、表示態様決定部204において決定した表示態様に従って被写体の表示位置を決定して出力画像を生成して表示部に表示する。
ステップS122の処理は、
被写体表示処理-Bであり、
視聴ユーザと、被写体(表示ユーザ)の視点を近づけた表示画像を生成して表示する処理を実行する。なお、被写体画像は実物大の画像である。
すなわち、視聴ユーザと、被写体(表示ユーザ)の視点の高さのずれを小さくした被写体実物大画像を生成して出力する。
図21~図22は、この処理によって生成された表示画像、すなわち、被写体(表示ユーザ)の視点を近づけた表示画像の例を示す図である。
図21は、被写体(表示ユーザ)の表示領域における表示位置を変更することで、視聴ユーザと、被写体(表示ユーザ)の視点の高さのずれを少なくした表示画像を生成した例を示す図である。
図21には、以下の2つの図を示している。
(1a)視聴ユーザと、被写体(表示ユーザ)の視点の差分が大きい入力画像
(1b)視聴ユーザと、被写体(表示ユーザ)の視点を近づける画像処理を実行して生成した表示画像
図(1a)は、処理前の画像であり、図(1b)は処理後の画像である。図(1a)に示す画像に含まれる被写体(表示ユーザ)の表示位置を変更することで、図(1b)に示すように、視聴ユーザと、被写体(表示ユーザ)の視点を近づけた表示画像を生成している。
図22は、被写体(表示ユーザ)の表示位置変更に合わせて、背景の3D画像モデルの視点位置を変更することで、視聴ユーザと、被写体(表示ユーザ)の視点を近づけた表示画像を生成した例を示す図である。
図22には、以下の2つの図を示している。
(2a)視聴ユーザと、被写体(表示ユーザ)の視点の差分が大きい入力画像
(2b)視聴ユーザと、被写体(表示ユーザ)の視点を近づける画像処理を実行して生成した表示画像
図(2a)は、処理前の画像であり、図(2b)は処理後の画像である。図(2a)に示す画像に含まれる被写体(表示ユーザ)の表示位置を変更するとともに、背景の3D画像モデルの視点位置を変更することで、視聴ユーザと、被写体(表示ユーザ)の視点を近づけるとともに、背景を含む全体の画像を自然な画像とした表示画像を生成している。
(ステップS110)
次に、ステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があると判定した場合のステップS110以下の処理について説明する。
ステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があると判定した場合は、ステップS108の判定結果がNoとなり、ステップS110に進む。
最適表示態様決定部204bは、ステップS110において、上記(判定d)の判定処理を行なう。すなわち、
(判定d)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
上記判定処理を実行する。
なお、上記しきい値は、予め規定されたしきい値である。
このステップS110において、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下であると判定した場合は、ステップS110の判定結果がYesとなり、ステップS123に進む。
一方、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合より多いと判定した場合は、ステップS110の判定結果がNoとなり、ステップS124に進む。
(ステップS123)
ステップS110において、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下であると判定した場合は、ステップS110の判定結果がYesとなり、ステップS123に進む。
ステップS123の処理は、被写体の画像表示処理である。
この処理は、図3に示す出力画像生成部205が実行する。表示画像サイズ調整部205aが、表示態様決定部204において決定した表示態様に従って表示画像サイズを調整し、画像表示位置決定部205bが、表示態様決定部204において決定した表示態様に従って被写体の表示位置を決定して出力画像を生成して表示部に表示する。
ステップS123の処理は、
被写体表示処理-Cであり、
被写体の欠落部位を隠す処理を実行して被写体を実物大で表示する処理を実行する。
図23~図24は、被写体の欠落部位を隠す処理を実行して被写体を実物大で表示した表示例を示す図である。
図23に示す例は、縦長の表示領域に被写体(表示ユーザ)を実物大表示した例であり、撮影画像に含まれていない被写体の足元の欠落領域にマスク領域を設定して表示画像とした例である。
図24に示す例は、縦長の表示領域に被写体(表示ユーザ)を実物大表示した例であり、撮影画像に含まれていない被写体の足元の欠落領域にマスク用のオブジェクトとしてテーブルを重畳表示して表示画像とした例である。
このような設定とすることで、被写体(表示ユーザ)を違和感なく表示することができる。
(ステップS124)
一方、ステップS110において、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合より多いと判定した場合は、ステップS110の判定結果がNoとなり、ステップS124に進む。
ステップS124の処理は、被写体の画像表示処理である。
この処理は、図3に示す出力画像生成部205が実行する。表示画像サイズ調整部205aが、表示態様決定部204において決定した表示態様に従って表示画像サイズを調整し、画像表示位置決定部205bが、表示態様決定部204において決定した表示態様に従って被写体の表示位置を決定して出力画像を生成して表示部に表示する。
ステップS124の処理は、
被写体表示処理-Dであり、
被写体の実物大表示は実行せず、構図を優先した表示処理を実行する。
図25には、以下の2つの図を示している。
(1a)欠落部位の大きい被写体の実物大表示例
(1b)欠落部位の大きい被写体の構図優先表示例
図(1a)は、処理前の画像であり、図(1b)は処理後の画像である。図(1a)に示す画像に含まれる被写体(表示ユーザ)は上半身しか含まれず、欠落部が大きい。
図(1b)に示す例は、被写体(表示ユーザ)を拡大して、実際の身長より高い被写体像を生成して表示した例であり、実物大表示にこだわることなく、構図を優先して表示画像を生成した例である。
なお、構図を優先した画像表示とは、例えば、表示領域に占める被写体の割合を多くする等の処理である。具体的には、例えば、被写体の顔を大きく表示する等、欠落部位の存在が気にならないような画像を生成して表示する処を行う。
図7、図8に示すフローチャートを参照して説明したように、本開示の画像処理装置は、表示態様決定部204の最適表示態様決定部204bにおいて、最適な画像表示を実行するための様々な判定処理(ステップS107~S110)を行ない、これらの判定結果に応じて決定した表示態様で被写体(表示ユーザ)の表示処理を行なう。
表示態様決定部204の最適表示態様決定部204bにおいて実行する判定処理は以下の処理である。
(判定a(ステップS107))表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理
(判定b(ステップS108))表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(判定c(ステップS109))表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
(判定d(ステップS110))表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
これらの判定結果に応じて、4種類の異なる表示処理(ステップS121~S124)を選択的に実行する。具体的には、以下の4種類の表示処理である。
((表示処理A(ステップS121)):床(視聴ユーザの立ち位置)から実物大の被写体を表示する。
((表示処理B)(ステップS122)):視聴ユーザと被写体の視点を近づける画像処理を実行して被写体表示を実行する。
((表示処理C)(ステップS123)):被写体の欠落部位を隠す画像処理を実行して被写体の実物大表示を実行する。
((表示処理D)(ステップS124)):被写体の実物大表示にこだわることなく構図を優先した画像を生成して被写体表示を実行する。
このように、本開示の画像処理装置は、画像領域情報や、被写体情報、さらに視聴者情報等に応じて最適な表示態様を決定して、決定した表示態様で、被写体を含む画像を生成して表示する構成としている。この処理の結果、様々な表示部、入力画像に応じた最適な画像出力が実現される。
従って、例えば双方向コミュニケーションを行う場合に、表示部に表示された被写体を見ながらコミュニケーションを実行する視聴ユーザは、違和感のないコミュニケーションを行うことが可能となる。
[5.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理装置。
(2) 前記表示態様決定部は、
表示領域の上端が、被写体人物の身長より高いか否かを判定し、
前記出力画像生成部は、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する(1)に記載の画像処理装置。
(3) 前記構図優先の出力画像は、被写体の顔領域を含む出力画像である(2)に記載の画像処理装置。
(4) 前記表示態様決定部は、
被写体人物を実物大表示する場合に、欠落領域が発生するか否かを判定し、
前記出力画像生成部は、
欠落領域が発生すると判定された場合、欠落領域に対するマスク処理を行なった出力画像、または、構図優先の出力画像を生成する(1)~(3)いずれかに記載の画像処理装置。
(5) 前記マスク処理を行なった出力画像は、前記欠落領域が隠れるマスク用のオブジェクトを被写体画像上に重畳した画像である(4)に記載の画像処理装置。
(6) 前記表示態様決定部は、
被写体人物を実物大表示する場合に、欠落領域が発生するか否かを判定し、
欠落領域が発生すると判定された場合、さらに、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下か否かを判定し、
前記出力画像生成部は、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定された場合には、欠落領域に対するマスク処理を行なった出力画像を生成し、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定されなかった場合には、構図優先の出力画像を生成する(1)~(5)いずれかに記載の画像処理装置。
(7) 前記表示態様決定部は、
表示部に表示される被写体の視線高さと、前記表示部を見る視聴ユーザの視線高さとの視線高さ差分がしきい値以下か否かを判定し、
前記出力画像生成部は、
前記視線高さ差分がしきい値以下でない場合、前記視線高さ差分を小さくした出力画像を生成する(1)~(6)いずれかに記載の画像処理装置。
(8) 前記出力画像生成部は、
前記視線高さ差分がしきい値以下でない場合、前記被写体の表示位置を変更して前記視線高さ差分を小さくした出力画像を生成する(7)に記載の画像処理装置。
(9) 前記出力画像生成部は、
前記視線高さ差分がしきい値以下でない場合、観察視点位置を変更した背景画像上に表示位置を変更した被写体画像を重畳した出力画像を生成する(7)に記載の画像処理装置。
(10) 前記画像処理装置は、さらに、
データ通信を実行する通信部を有し、
前記画像情報解析部は、
前記通信部が受信した入力画像の解析処理を実行する(1)~(9)いずれかに記載の画像処理装置。
(11) 前記画像処理装置は、さらに、
撮像部を有し、
前記表示態様決定部は、
前記撮像部の撮影した視聴ユーザの情報を適用して表示部に表示する被写体の表示態様を決定する(1)~(10)いずれかに記載の画像処理装置。
(12) ネットワークにより接続された第1画像処理装置と第2画像処理装置との間で画像送受信を実行する画像処理システムであり、
前記第1画像処理装置は、
表示部の表示領域情報を取得する表示領域情報取得部と、
前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理システム。
(13) 画像処理装置において実行する画像処理方法であり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行する画像処理方法。
(14) 画像処理装置において画像処理を実行させるプログラムであり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
具体的には、表示領域情報取得部が、表示部の表示領域情報を取得し、画像取得部が、表示部に表示する被写体を含む入力画像を取得する。さらに、画像情報解析部が、入力画像解析処理を実行し、表示態様決定部が、解析結果を適用して表示部に表示する被写体の表示態様を決定し、決定した表示態様に従って生成した出力画像を表示部に表示する。実物大表示を行った場合の被写体欠落部に対する処理や、視線位置の修正等を実行し、自然な被写体表示を実行する。
本構成により、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
10,20 画像処理装置
11,21 表示部(ディスプレイ)
12,22 カメラ
13,23 スピーカ
30 ネットワーク
100 画像処理装置
101 コントローラ
102 ROM
103 RAM
104 バス
105 入出力インタフェース
106 撮像部
107 表示部
107a 表示領域
108 操作受付部
109 記憶部
110 通信部
201 表示領域情報取得部
202画像取得部
203 画像情報解析部
203a 体部位検出部
203b 被写体情報取得部
204 表示態様決定部
204a 実物大画像生成部
204b 最適表示態様決定部
205 出力画像生成部
205a 表示画像サイズ調整部
205b 画像表示位置決定部
206 再生部

Claims (11)

  1. 表示部の表示領域情報を取得する表示領域情報取得部と、
    表示部に表示する被写体を含む入力画像を取得する画像取得部と、
    前記入力画像を解析する画像情報解析部と、
    前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
    前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
    前記表示態様決定部は、
    表示領域の上端が、被写体人物の身長より高いか否かを判定し、
    前記出力画像生成部は、
    表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
    表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理装置。
  2. 前記構図優先の出力画像は、被写体の顔領域を含む出力画像である請求項1に記載の画像処理装置。
  3. 表示部の表示領域情報を取得する表示領域情報取得部と、
    表示部に表示する被写体を含む入力画像を取得する画像取得部と、
    前記入力画像を解析する画像情報解析部と、
    前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
    前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
    前記画像情報解析部は、
    前記入力画像から被写体人物の体の部位を検出する体部位検出部を有し、
    前記表示態様決定部は、
    被写体人物を実物大表示する場合に、前記体部位検出部が検出した前記入力画像に含まれる前記被写体人物の体の部位情報に基づいて欠落領域が発生するか否か、および発生する欠落領域の部位を判定し、
    前記出力画像生成部は、
    欠落領域が発生すると判定された場合、欠落領域の部位に応じて欠落領域に対するマスク処理を行なった出力画像、または、構図優先の出力画像を生成する画像処理装置。
  4. 前記マスク処理を行なった出力画像は、前記欠落領域が隠れるマスク用のオブジェクトを被写体画像上に重畳した画像である請求項3に記載の画像処理装置。
  5. 前記表示態様決定部は、
    被写体人物を実物大表示する場合に、前記体部位検出部が検出した前記入力画像に含まれる前記被写体人物の体の部位情報に基づいて欠落領域が発生するか否か、および発生する欠落領域の部位を判定し、
    欠落領域が発生すると判定された場合、さらに、
    入力画像に頭部が含まれ、かつ欠落領域が一定割合以下か否かを判定し、
    前記出力画像生成部は、
    入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定された場合には、欠落領域に対するマスク処理を行なった出力画像を生成し、
    入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定されなかった場合には、構図優先の出力画像を生成する請求項3に記載の画像処理装置。
  6. 表示部の表示領域情報を取得する表示領域情報取得部と、
    表示部に表示する被写体を含む入力画像を取得する画像取得部と、
    前記入力画像を解析する画像情報解析部と、
    前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
    前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
    前記表示態様決定部は、
    表示部に表示される被写体の視線高さと、前記表示部を見る視聴ユーザの視線高さとの視線高さ差分がしきい値以下か否かを判定し、
    前記出力画像生成部は、
    前記視線高さ差分がしきい値以下でない場合、観察視点位置を変更した背景画像上に表示位置を変更した被写体画像を重畳した出力画像を生成する画像処理装置。
  7. 前記画像処理装置は、さらに、
    データ通信を実行する通信部を有し、
    前記画像情報解析部は、
    前記通信部が受信した入力画像の解析処理を実行する請求項1~6いずれかに記載の画像処理装置。
  8. 前記画像処理装置は、さらに、
    撮像部を有し、
    前記表示態様決定部は、
    前記撮像部の撮影した視聴ユーザの情報を適用して表示部に表示する被写体の表示態様を決定する請求項1~7いずれかに記載の画像処理装置。
  9. ネットワークにより接続された第1画像処理装置と第2画像処理装置との間で画像送受信を実行する画像処理システムであり、
    前記第1画像処理装置は、
    表示部の表示領域情報を取得する表示領域情報取得部と、
    前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
    前記入力画像を解析する画像情報解析部と、
    前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
    前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
    前記表示態様決定部は、
    表示領域の上端が、被写体人物の身長より高いか否かを判定し、
    前記出力画像生成部は、
    表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
    表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理システム。
  10. 画像処理装置において実行する画像処理方法であり、
    表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
    画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
    画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
    表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
    出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行し、
    前記表示態様決定部は、
    表示領域の上端が、被写体人物の身長より高いか否かを判定し、
    前記出力画像生成部は、
    表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
    表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理方法。
  11. 画像処理装置において画像処理を実行させるプログラムであり、
    表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
    画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
    画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
    表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
    出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させ、
    前記プログラムは、さらに、
    前記表示態様決定部に、
    表示領域の上端が、被写体人物の身長より高いか否かを判定させ、
    前記出力画像生成部に、
    表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行させ、
    表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成させるプログラム。
JP2018516900A 2016-05-13 2017-04-07 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Active JP7074056B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016096697 2016-05-13
JP2016096697 2016-05-13
PCT/JP2017/014550 WO2017195514A1 (ja) 2016-05-13 2017-04-07 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2017195514A1 JPWO2017195514A1 (ja) 2019-03-22
JP7074056B2 true JP7074056B2 (ja) 2022-05-24

Family

ID=60267010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516900A Active JP7074056B2 (ja) 2016-05-13 2017-04-07 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10986401B2 (ja)
JP (1) JP7074056B2 (ja)
WO (1) WO2017195514A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958482B (zh) * 2016-10-17 2021-06-18 杭州海康威视数字技术股份有限公司 一种三维场景模型构建方法及装置
US10951859B2 (en) * 2018-05-30 2021-03-16 Microsoft Technology Licensing, Llc Videoconferencing device and method
CN111277786B (zh) * 2020-02-28 2021-07-09 中国科学院上海微系统与信息技术研究所 正确传达人脸视线方向的影像显示系统及影像显示方法
CN112619143B (zh) * 2020-12-23 2023-03-21 上海米哈游天命科技有限公司 一种角色标识显示方法、装置、设备及存储介质
JP7410523B1 (ja) 2022-08-19 2024-01-10 株式会社ブイキューブ 表示装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011023886A (ja) 2009-07-14 2011-02-03 Panasonic Corp テレビ会議装置及び映像表示処理方法
JP2012169949A (ja) 2011-02-16 2012-09-06 Brother Ind Ltd 通信端末、通信システム、通信方法、及び通信プログラム
JP2014086774A (ja) 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014194675A (ja) 2013-03-29 2014-10-09 Brother Ind Ltd プログラム、通信装置
WO2015194075A1 (ja) 2014-06-18 2015-12-23 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2016500954A (ja) 2012-10-10 2016-01-14 マイクロソフト コーポレーション 制御された三次元通信エンドポイント

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
KR101433157B1 (ko) * 2007-10-26 2014-08-22 삼성전자주식회사 휴대 단말기 및 그 이미지 전송 방법
US8320461B2 (en) * 2008-02-20 2012-11-27 Gil Hoon Chang Remote resource access interface apparatus
JP5139339B2 (ja) 2009-01-22 2013-02-06 日本電信電話株式会社 テレビ会議装置および表示撮像方法
CN102025891B (zh) * 2009-09-11 2012-11-07 华为终端有限公司 一种图像处理方法及装置
US8744420B2 (en) * 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
KR20120064545A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 시선일치 기능을 구비한 영상통화 장치 및 그 방법
JP5877351B2 (ja) * 2010-12-15 2016-03-08 パナソニックIpマネジメント株式会社 通信装置および通信方法
US9716858B2 (en) * 2011-03-07 2017-07-25 Ricoh Company, Ltd. Automated selection and switching of displayed information
TWI492629B (zh) * 2011-11-02 2015-07-11 Quanta Comp Inc 視訊會議系統、視訊會議裝置及其方法
US9113033B2 (en) * 2012-08-28 2015-08-18 Microsoft Technology Licensing, Llc Mobile video conferencing with digital annotation
US9325939B2 (en) * 2014-08-14 2016-04-26 Verizon Patent And Licensing Inc. Method and system for providing gaze-directed correction during a video conferencing session
US9628754B2 (en) * 2015-04-02 2017-04-18 Telepresence Technologies, Llc TelePresence architectural systems and methods therefore
US10917611B2 (en) * 2015-06-09 2021-02-09 Avaya Inc. Video adaptation in conferencing using power or view indications
JP5965030B2 (ja) 2015-06-17 2016-08-03 ホリー株式会社 制振装置
JPWO2017094543A1 (ja) * 2015-12-02 2018-09-20 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
US9743040B1 (en) * 2015-12-03 2017-08-22 Symantec Corporation Systems and methods for facilitating eye contact during video conferences
US9538130B1 (en) * 2015-12-10 2017-01-03 Dell Software, Inc. Dynamic gaze correction for video conferencing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011023886A (ja) 2009-07-14 2011-02-03 Panasonic Corp テレビ会議装置及び映像表示処理方法
JP2012169949A (ja) 2011-02-16 2012-09-06 Brother Ind Ltd 通信端末、通信システム、通信方法、及び通信プログラム
JP2016500954A (ja) 2012-10-10 2016-01-14 マイクロソフト コーポレーション 制御された三次元通信エンドポイント
JP2014086774A (ja) 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014194675A (ja) 2013-03-29 2014-10-09 Brother Ind Ltd プログラム、通信装置
WO2015194075A1 (ja) 2014-06-18 2015-12-23 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US20190138803A1 (en) 2019-05-09
US10986401B2 (en) 2021-04-20
WO2017195514A1 (ja) 2017-11-16
JPWO2017195514A1 (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
JP7074056B2 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017215295A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
US9628755B2 (en) Automatically tracking user movement in a video chat application
US9473741B2 (en) Teleconference system and teleconference terminal
US20210037116A1 (en) Method and apparatus for synchronizing viewing angles in virtual reality live streaming
JP7191853B2 (ja) ヘッドマウントディスプレイおよび方法
WO2015194075A1 (ja) 画像処理装置、画像処理方法及びプログラム
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP5793975B2 (ja) 画像処理装置、画像処理方法、プログラム、記録媒体
WO2011081036A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
TW201707444A (zh) 視線校正(一)
JP2016213677A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN111163280B (zh) 非对称性视频会议系统及其方法
US20160267801A1 (en) Image display method and apparatus
JP6700672B2 (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
WO2021065694A1 (ja) 情報処理システム及び方法
WO2020184316A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022054192A (ja) リモート会議システム、サーバ、写真撮影装置、音声出力方法、及びプログラム
JP5656809B2 (ja) 会話映像表示システム
TW201639347A (zh) 視線校正(二)
JP2020530218A (ja) 没入型視聴覚コンテンツを投影する方法
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
JP2016144071A (ja) 位置制御装置、プログラム、画像表示装置および画像表示方法
JP2023154542A (ja) 画像処理システム、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R151 Written notification of patent or utility model registration

Ref document number: 7074056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151