JP7467612B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7467612B2
JP7467612B2 JP2022517661A JP2022517661A JP7467612B2 JP 7467612 B2 JP7467612 B2 JP 7467612B2 JP 2022517661 A JP2022517661 A JP 2022517661A JP 2022517661 A JP2022517661 A JP 2022517661A JP 7467612 B2 JP7467612 B2 JP 7467612B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
imaging
time interval
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022517661A
Other languages
English (en)
Other versions
JPWO2021220891A1 (ja
JPWO2021220891A5 (ja
Inventor
泰規 村上
真彦 宮田
貴嗣 青木
史憲 入江
一紀 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021220891A1 publication Critical patent/JPWO2021220891A1/ja
Publication of JPWO2021220891A5 publication Critical patent/JPWO2021220891A5/ja
Application granted granted Critical
Publication of JP7467612B2 publication Critical patent/JP7467612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0232Special driving of display border areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0428Gradation resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示の技術は、画像処理装置、画像処理方法、及びプログラムに関する。
特開2019-045995号公報には、複数の撮影装置により撮影された複数の画像を用いて生成される仮想視点画像に係る視点の位置を決定する情報処理装置が開示されている。特開2019-045995号公報に記載の情報処理装置は、仮想視点画像の生成に係るシーンを判定する判定手段と、判定手段により判定されたシーンに基づいて、判定手段により判定されたシーンにおける仮想視点画像に係る視点の位置を決定する決定手段と、を有する。
特開2019-197409号公報には、設定された仮想視点に対応する仮想視点画像を生成する生成手段と、仮想視点画像に含まれる1つ以上の表示制御対象のオブジェクトを指定する指定手段と、設定された仮想視点の速度に応じて、仮想視点画像における指定されたオブジェクトの表示態様を制御する表示制御手段と、を有する画像処理装置が開示されている。
特開2020-009021号公報には、複数のカメラから得られる多視点画像に基づく仮想視点画像の生成に係る第1仮想視点を設定する設定手段と、設定手段により設定された第1仮想視点とは位置及び向きの少なくとも何れかが異なる第2仮想視点であって、第1仮想視点と共通の時刻に対応する第2仮想視点を示す視点情報を、設定手段により設定された第1仮想視点に基づいて生成する生成手段と、を備える情報処理装置が開示されている。
国際公開2018/211570号には、コンピュータに、複数のカメラにより対象物が複数の方向から撮影された複数の撮像フレームを合成することで、3次元空間内の対象物の3次元モデルを生成し、3次元空間内の対象物の位置を基にして、3次元空間上の仮想カメラを配置する位置を決定する処理を実行させることを特徴とする映像生成プログラムが開示されている。
本開示の技術に係る一つの実施形態は、仮想視点画像で対象物の位置及び向きがそのまま再現される場合に比べ、対象物の位置及び向きの時間変化が仮想視点画像の観賞者に与える不快感を軽減することができる画像処理装置、画像処理方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、プロセッサと、プロセッサに内蔵又は接続されたメモリと、を備え、プロセッサが、撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力し、仮想視点画像の表示態様を位置及び向きのうちの少なくとも一方の時間変化量に応じて制御する画像処理装置である。
本開示の技術に係る第2の態様は、プロセッサが、実際の対象物の位置及び向きの時間変化量よりも少ない時間変化量に応じて表示態様を制御する第1の態様に係る画像処理装置である。
本開示の技術に係る第3の態様は、プロセッサが、時間変化量を平滑化することで位置及び向きに基づく調整位置及び調整向きを生成し、調整位置及び調整向きを基準にして仮想視点画像を生成して出力することで表示態様を制御する第1の態様又は第2の態様に係る画像処理装置である。
本開示の技術に係る第4の態様は、プロセッサは、位置及び向きの時系列の変化量を移動平均することで時間変化量を平滑化する第3の態様に係る画像処理装置である。
本開示の技術に係る第5の態様は、プロセッサが、時間変化量が既定範囲である場合に、仮想視点画像の表示態様を時間変化量に応じて制御する第1の態様から第4の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第6の態様は、プロセッサが、仮想視点画像を生成する時間間隔を時間変化量に応じて変更する第1の態様から第5の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第7の態様は、プロセッサが、時間変化量が第1既定値以上の場合に、時間間隔を第1基準時間間隔よりも短くする第6の態様に係る画像処理装置である。
本開示の技術に係る第8の態様は、プロセッサが、時間変化量が第1既定値未満であり、かつ、時間間隔が第2基準時間間隔と異なる場合に、時間間隔を第2基準時間間隔にする第7の態様に係る画像処理装置である。
本開示の技術に係る第9の態様は、プロセッサが、時間変化量が第1既定値以下の場合に、時間間隔を第2基準時間間隔よりも長くする第6の態様に係る画像処理装置である。
本開示の技術に係る第10の態様は、プロセッサが、時間変化量が第1既定値を超え、かつ、時間間隔が第2基準時間間隔と異なる場合に、時間間隔を第2基準時間間隔にする第9の態様に係る画像処理装置である。
本開示の技術に係る第11の態様は、プロセッサが、更に、仮想視点画像を生成する時間間隔を、受付デバイスによって受け付けられた指示に従って変更する第6の態様から第10の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第12の態様は、指示が、仮想視点画像の表示速度に関する指示である第11の態様に係る画像処理装置である。
本開示の技術に係る第13の態様は、プロセッサが、指示が表示速度を第1基準表示速度よりも遅くする指示の場合に、時間間隔を第3基準時間間隔よりも短くする第12の態様に係る画像処理装置である。
本開示の技術に係る第14の態様は、プロセッサが、指示が表示速度を第2基準表示速度よりも速くする指示の場合に、時間間隔を第4基準時間間隔よりも長くする第12の態様又は第13の態様に係る画像処理装置である。
本開示の技術に係る第15の態様は、仮想視点画像の表示領域が、向きと正対している正対領域と正対領域を取り囲む周辺領域とに分けられ、プロセッサが、周辺領域の解像度を正対領域の解像度よりも低くする第1の態様から第14の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第16の態様は、プロセッサが、周辺領域の解像度を正対領域から離れるほど低くする第15の態様に係る画像処理装置である。
本開示の技術に係る第17の態様は、プロセッサが、仮想視点画像とは異なる表示用画像であって、撮像領域のうちの少なくとも一部を示す表示用画像を得るための撮像方向と向きとのずれに基づいて、表示用画像と仮想視点画像との位置関係を示す情報を生成して出力する第1の態様から第16の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第18の態様は、位置関係を示す情報が、仮想視点画像の観賞者に対して視覚的に認識させる情報である第17の態様に係る画像処理装置である。
本開示の技術に係る第19の態様は、位置関係を示す情報が、表示用画像の位置から仮想視点画像の位置への方向を指し示す矢印である第18の態様に係る画像処理装置である。
本開示の技術に係る第20の態様は、プロセッサが、矢印の長さを、表示用画像の位置と仮想視点画像の位置との間の距離に応じて伸縮させる第19の態様に係る画像処理装置である。
本開示の技術に係る第21の態様は、位置関係を示す情報が、仮想視点画像の観賞者に対して触覚的に認識させる情報、及び聴覚的に認識させる情報のうちの少なくとも一方を含む情報である第17の態様から第20の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第22の態様は、プロセッサが、表示用画像がディスプレイに表示されている状態で、表示用画像から仮想視点画像への切替指示が与えられたことを条件に、ディスプレイに対して表示させる画像を表示用画像から仮想視点画像に切り替える制御を行う第17の態様から第21の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第23の態様は、プロセッサが、仮想視点画像を時系列で並べた表示用画面を生成して出力する第1の態様から第22の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第24の態様は、対象物が、特定の人物であり、位置が、人物の視点位置であり、向きが、人物の視線方向である第1の態様から第23の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第25の態様は、撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力すること、並びに、仮想視点画像の表示態様を位置及び向きのうちの少なくとも一方の時間変化量に応じて制御することを含む画像処理方法である。
本開示の技術に係る第26の態様は、コンピュータに、撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力すること、並びに、仮想視点画像の表示態様を位置及び向きのうちの少なくとも一方の時間変化量に応じて制御することを含む処理を実行させるためのプログラムである。
第1及び第2実施形態に係る画像処理システムの外観構成の一例を示す概略斜視図である。 第1及び第2実施形態に係る画像処理システムによって生成される仮想視点画像の一例を示す概念図である。 第1及び第2実施形態に係る画像処理装置の電気系のハードウェア構成の一例を示すブロック図である。 第1及び第2実施形態に係るユーザデバイスの電気系のハードウェア構成の一例を示すブロック図である。 対象人物の視点位置及び視線方向の時間変化の態様の一例、並びに仮想視点画像の時間変化の態様の一例を示す概念図である。 第1実施形態に係る画像処理装置の要部機能の一例を示すブロック図である。 第1実施形態に係る画像生成部の処理内容の一例を示す概念図である。 第1実施形態に係る画像生成部及び出力部の処理内容の一例を示す概念図である。 第1実施形態に係る画像生成部及び視点視線算出部の処理内容の一例を示す概念図である。 第1実施形態に係る視点視線算出部及び取得部の処理内容の一例を示す概念図である。 第1実施形態に係る視点位置視線方向生成部の処理内容の一例を示す概念図である。 第1実施形態に係る画像生成部及び視点視線算出部の処理内容の一例を示す概念図である。 第1実施形態に係る視点視線生成処理の流れの一例を示すフローチャートである。 第1実施形態に係る画像生成出力処理の流れの一例を示すフローチャートである。 第2実施形態に係る変更部の処理内容の一例を示す概念図である。 第2実施形態に係る視点視線生成処理の流れの一例を示すフローチャートである。 図16Aに示すフローチャートの続きである。 図16A及び図16Bに示すフローチャートの続きである。 第2実施形態に係る視点視線生成処理の流れの第1変形例を示すフローチャートである。 図17Aに示すフローチャートの続きである。 第2実施形態に係る視点視線生成処理の流れの第2変形例を示すフローチャートである。 第2実施形態に係る変更部の処理内容の変形例を示す概念図である。 図19に示す変更部の処理内容の具体例を示す概念図である。 仮想視点画像の生成態様及び表示態様の一例を示す概念図である。 図21に示す仮想視点画像の生成態様及び表示態様の第1変形例を示す概念図である。 画像生成部、位置関係情報生成部、及び出力部の処理内容の一例を示す概念図である。 図23に示す重畳矢印の長さが短くされた態様の一例を示す概念図である。 別画像から仮想視点画像に切り替える場合の処理内容を示す概念図である。 ユーザデバイスとしてヘッドマウントディスプレイを用いる場合の使用例を示す概念図である。 仮想視点画像が時系列で並べられた表示用画面の態様の一例を示す概念図である。 表示用画面内のうちの正対領域の解像度よりも周辺領域の解像度が低い態様の一例を示す概念図である。 画像処理装置プログラムが記憶されている記憶媒体から画像処理装置のコンピュータに画像処理装置プログラムがインストールされる態様の一例を示すブロック図である。
添付図面に従って本開示の技術の画像処理装置、画像処理方法、及びプログラムに係る実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。I/Fとは、“Interface”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。WANとは、“Wide Area Network”の略称を指す。LANとは、“Local Area Network”の略称を指す。3Dとは、“3 Dimensions”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。5Gとは、“5th Generation”の略称を指す。LTEとは、“Long Term Evolution”の略称を指す。WiFiとは、“Wireless Fidelity”の略称を指す。RTCとは、“Real Time Clock”の略称を指す。FIFOとは、“First In First Out”の略称を指す。SNTPとは、“Simple Network Time Protocol”の略称を指す。NTPとは、“Network Time Protocol”の略称を指す。GPSとは、“Global Positioning System”の略称を指す。Exifとは、"Exchangeable image file format for digital still cameras”の略称を指す。GNSSとは、“Global Navigation Satellite System”の略称を指す。以下では、説明の便宜上、本開示の技術に係る「プロセッサ」の一例として、CPUを例示しているが、本開示の技術に係る「プロセッサ」は、CPU及びGPU等のように複数の処理装置の組み合わせであってもよい。本開示の技術に係る「プロセッサ」の一例として、CPU及びGPUの組み合わせが適用される場合、GPUは、CPUの制御下で動作し、画像処理の実行を担う。
また、本明細書の説明において、「一致」とは、完全な一致の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合い(本開示の技術の趣旨に反しない程度の誤差を含めた意味合い)での一致を指す。
[第1実施形態]
一例として図1に示すように、画像処理システム10は、画像処理装置12、ユーザデバイス14、及び複数の撮像装置16を備えている。ユーザデバイス14は、ユーザ18によって使用される。
本第1実施形態では、ユーザデバイス14の一例として、スマートフォンが適用されている。但し、スマートフォンは、あくまでも一例に過ぎず、例えば、パーソナル・コンピュータであってもよいし、タブレット端末又はヘッドマウントディスプレイ等の携帯型の多機能端末であってもよい。また、本第1実施形態では、画像処理装置12の一例として、サーバが適用されている。サーバの台数は、1台であってもよいし、複数台であってもよい。サーバは、あくまでも一例に過ぎず、例えば、少なくとも1台のパーソナル・コンピュータであってもよいし、少なくとも1台のサーバと少なくとも1台のパーソナル・コンピュータとの組み合わせであってもよい。このように、画像処理装置12は、画像処理を実行することが可能な少なくとも1台のデバイスであればよい。
ネットワーク20は、例えば、WAN及び/又はLANを含んで構成されている。図1に示す例では、図示が省略されているが、ネットワーク20は、例えば、基地局を含む。基地局は1ヵ所に限らず、複数存在していてもよい。更に、基地局で使用する通信規格には、5G規格、LTE規格、WiFi(802.11)規格、及又はBluetooth(登録商標)規格等の無線通信規格が含まれる。ネットワーク20は、画像処理装置12とユーザデバイス14との間で通信を確立し、画像処理装置12とユーザデバイス14との間の各種の情報の送受信を行う。画像処理装置12は、ネットワーク20を介してユーザデバイス14からの要求を受け、要求に応じたサービスを、ネットワーク20を介して、要求元のユーザデバイス14に提供する。
なお、本第1実施形態では、ユーザデバイス14とネットワーク20との間の通信方式、及び画像処理装置12とネットワーク20との間の通信方式の一例として、無線通信方式が適用されているが、これはあくまでも一例に過ぎず、有線通信方式であってもよい。
撮像装置16は、CMOSイメージセンサを有する撮像用のデバイスであり、光学式ズーム機能及び/又はデジタルズーム機能が搭載されている。なお、CMOSイメージセンサに代えてCCDイメージセンサ等の他種類のイメージセンサを適用してもよい。
複数の撮像装置16は、サッカー競技場22内に設置されている。複数の撮像装置16は、撮像位置及び撮像方向が異なる。図1に示す例では、複数の撮像装置16の各々が、サッカーフィールド24を取り囲むように配置されており、サッカーフィールド24を含む領域を撮像領域として撮像する。撮像装置16による撮像とは、例えば、撮像領域を含む画角での撮像を指す。
なお、ここでは、複数の撮像装置16の各々がサッカーフィールド24を取り囲むように配置されている形態例を挙げているが、本開示の技術はこれに限定されず、例えば、サッカーフィールド24の全部を取り囲むように複数の撮像装置16を配置してもよいし、特定の一部を取り囲むように複数の撮像装置16を配置してもよい。複数の撮像装置16の位置及び/又は向きは変更可能であり、生成されることがユーザ18等によって要求された仮想視点画像に応じて決定される。なお、図示は省略するが、少なくとも1台の撮像装置16が無人式航空機(例えば、マルチ回転翼型無人航空機)に設置されており、サッカーフィールド24を含む領域を撮像領域として上空から俯瞰した状態で撮像するようにしてもよい。
画像処理装置12は、管制室32に設置されている。複数の撮像装置16及び画像処理装置12は、LANケーブル30を介して接続されており、画像処理装置12は、複数の撮像装置16を制御し、かつ、複数の撮像装置16の各々によって撮像されることで得られた画像を取得する。なお、ここでは、LANケーブル30による有線通信方式を用いた接続を例示しているが、これに限らず、無線通信方式を用いた接続であってもよい。
サッカー競技場22には、サッカーフィールド24を取り囲むように観戦席26が設けられており、観戦席26にはユーザ18が着座している。ユーザ18は、ユーザデバイス14を所持しており、ユーザデバイス14は、ユーザ18によって用いられる。なお、ここでは、サッカー競技場22内にユーザ18が存在している形態例を挙げて説明しているが、本開示の技術はこれに限定されず、ユーザ18は、サッカー競技場22外に存在していてもよい。
一例として図2に示すように、画像処理装置12は、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す撮像画像46Bを複数の撮像装置16の各々から取得する。撮像画像46Bは、複数の撮像装置16の各々によって撮像領域が撮像されることで得られた動画像である。なお、ここでは、撮像画像46Bが動画像である場合を例示しているが、撮像画像46Bは、これに限らず、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す静止画像であってもよい。
画像処理装置12は、複数の撮像装置16によって撮像領域が撮像されることで得られた複数の撮像画像46Bを合成することにより、3Dポリゴンを用いた動画像を生成する。そして、画像処理装置12は、生成した3Dポリゴンを用いた動画像に基づき、任意の位置及び任意の方向から撮像領域が観察された場合の観察領域を示す仮想視点画像46Cを生成する。ここで、仮想視点画像46Cは、動画像である。但し、これはあくまでも一例に過ぎず、静止画像であってもよい。
また、画像処理装置12は、例えば、既定時間分(例えば、数時間~数十時間分)の撮像画像46Bを保持している。そのため、例えば、画像処理装置12は、既定時間分の撮像画像46Bから、指定された撮像時刻の撮像画像46Bを取得し、取得した撮像画像46Bを用いて仮想視点画像46Cを生成する。
ここで、撮像画像46Bは、物理カメラである撮像装置16によって撮像されることで得られた画像であるのに対し、仮想視点画像46Cは、任意の位置及び任意の方向から仮想的な撮像装置、すなわち、仮想カメラによって撮像領域が撮像されることで得られた画像であると考えることができる。仮想カメラの位置及び向きは変更可能である。仮想カメラの位置は、視点位置42である。仮想カメラの向きは、視線方向44である。ここで、視点位置とは、例えば、仮想的な人物の視点の位置を意味し、視線方向とは、例えば、仮想的な人物の視線の方向を意味する。すなわち、本実施形態では、説明の便宜上、仮想カメラを用いて説明しているが、仮想カメラを用いることは必須ではない。「仮想カメラを設置」とは、仮想視点画像46Cを生成する視点位置、視線方向、又は画角を決めることを意味する。従って、例えばコンピュータ上で撮像領域に対して仮想カメラのようなオブジェクトを設置する態様に限らず、数値で視点位置の座標や方向を指定する等の別の方法でも良い。 また、「仮想カメラによって撮像」とは、「仮想カメラを設置」した位置及び方向から撮像領域を見た場合に相当する仮想視点画像46Cを生成することを意味する。なお、以下では、説明の便宜上、仮想カメラの位置を「仮想カメラ位置」とも称し、仮想カメラの向きを「仮想カメラ向き」とも称する。
図2に示す例では、仮想視点画像46Cの一例として、観戦席26内の視点位置42及び視線方向44、すなわち、観戦席26内の仮想カメラ位置及び仮想カメラ向きから撮像領域を観察した場合の撮像領域を示す仮想視点画像が示されている。仮想カメラ位置及び仮想カメラ向きは固定されていない。つまり、仮想カメラ位置及び仮想カメラ向きは、ユーザ18等からの指示に応じて変更可能である。例えば、画像処理装置12は、サッカーフィールド24内のサッカープレーヤー及びレフェリー等のうちの対象被写体として指定された人物(以下、「対象人物」とも称する)の位置を仮想カメラ位置として設定し、対象人物の目線方向を仮想カメラ向きとして設定することも可能である。
一例として図3に示すように、画像処理装置12は、コンピュータ50、RTC51、受付デバイス52、ディスプレイ53、第1通信I/F54、及び第2通信I/F56を備えている。コンピュータ50は、CPU58、ストレージ60、及びメモリ62を備えている。CPU58は、本開示の技術に係る「プロセッサ」の一例であり、メモリ62は、本開示の技術に係る「メモリ」の一例である。
CPU58、ストレージ60、及びメモリ62は、バス64を介して接続されている。図3に示す例では、図示の都合上、バス64として1本のバスが図示されているが、複数のバスであってもよい。また、バス64には、シリアルバス、又は、データバス、アドレスバス、及びコントロールバス等で構成されるパラレルバスが含まれていてもよい。
CPU58は、画像処理装置12の全体を制御する。ストレージ60は、各種パラメータ及び各種プログラムを記憶している。ストレージ60は、不揮発性の記憶装置である。ここでは、ストレージ60の一例として、EEPROMが適用されている。但し、これはあくまでも一例に過ぎず、SSD又はHDD等であってもよい。メモリ62は、記憶装置である。メモリ62には、各種情報が一時的に記憶される。メモリ62は、CPU58によってワークメモリとして用いられる。ここでは、メモリ62の一例として、RAMが適用されている。但し、これはあくまでも一例に過ぎず、他の種類の記憶装置であってもよい。
RTC51は、コンピュータ50用の電源系から切り離された電源系から駆動用電力の供給を受け、コンピュータ50がシャットダウンした状態であっても、現在時刻(例えば、年月日時分秒)を刻み続ける。RTC51は、現在時刻が更新される毎に、CPU58に現在時刻を出力する。ここでは、CPU58がRTC51から現在時刻を取得する形態例を挙げているが、本開示の技術はこれに限定されず、例えば、CPU58は、ネットワーク20経由で外部装置(図示省略)から提供される現在時刻を取得する(例えば、SNTP及び/又はNTPを利用して取得する)ようにしてもよいし、コンピュータ50に内蔵又は接続されたGNSS機器(例えば、GPS機器)から現在時刻を取得するようにしてもよい。
受付デバイス52は、画像処理装置12の使用者等からの指示を受け付ける。受付デバイス52の一例としては、タッチパネル、ハードキー、及びマウス等が挙げられる。受付デバイス52は、バス64等に接続されており、受付デバイス52によって受け付けられた指示は、CPU58によって取得される。
ディスプレイ53は、バス64に接続されており、CPU58の制御下で、各種情報を表示する。ディスプレイ53の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、ELディスプレイ(例えば、有機ELディスプレイ又は無機ELディスプレイ)等の他の種類のディスプレイがディスプレイ53として採用されてもよい。
第1通信I/F54は、LANケーブル30に接続されている。第1通信I/F54は、例えば、FPGAを有するデバイスによって実現される。第1通信I/F54は、バス64に接続されており、CPU58と複数の撮像装置16との間で各種情報の授受を司る。例えば、第1通信I/F54は、CPU58の要求に従って複数の撮像装置16を制御する。また、第1通信I/F54は、複数の撮像装置16の各々によって撮像されることで得られた撮像画像46B(図2参照)を取得し、取得した撮像画像46BをCPU58に出力する。なお、ここでは、第1通信I/F54は有線通信I/Fとして例示されているが、高速無線LAN等の無線通信I/Fであってもよい。
第2通信I/F56は、ネットワーク20に対して無線通信可能に接続されている。第2通信I/F56は、例えば、FPGAを有するデバイスによって実現される。第2通信I/F56は、バス64に接続されている。第2通信I/F56は、ネットワーク20を介して、無線通信方式で、CPU58とユーザデバイス14との間で各種情報の授受を司る。
なお、第1通信I/F54及び第2通信I/F56のうちの少なくとも一方は、FPGAの代わりに固定回路で構成することも可能である。また、第1通信I/F54及び第2通信I/F56のうちの少なくとも一方は、ASIC、FPGA、及び/又はPLD等で構成された回路であってもよい。
一例として図4に示すように、ユーザデバイス14は、コンピュータ70、ジャイロセンサ74、受付デバイス76、ディスプレイ78、マイクロフォン80、スピーカ82、撮像装置84、及び通信I/F86を備えている。コンピュータ70は、CPU88、ストレージ90、及びメモリ92を備えており、CPU88、ストレージ90、及びメモリ92は、バス94を介して接続されている。図4に示す例では、図示の都合上、バス94として1本のバスが図示されているが、バス94は、シリアルバスで構成されているか、或いは、データバス、アドレスバス、及びコントロールバス等を含んで構成されている。
CPU88は、ユーザデバイス14の全体を制御する。ストレージ90は、各種パラメータ及び各種プログラムを記憶している。ストレージ90は、不揮発性の記憶装置である。ここでは、ストレージ90の一例として、EEPROMが適用されている。但し、これはあくまでも一例に過ぎず、SSD又はHDD等であってもよい。メモリ92には、各種情報が一時的に記憶され、メモリ92は、CPU88によってワークメモリとして用いられる。ここでは、メモリ92の一例として、RAMが適用されている。但し、これはあくまでも一例に過ぎず、他の種類の記憶装置であってもよい。
ジャイロセンサ74は、ユーザデバイス14のヨー軸周りの角度(以下、「ヨー角」とも称する)、ユーザデバイス14のロール軸周りの角度(以下、「ロール角」とも称する)、及びユーザデバイス14のピッチ軸周りの角度(以下、「ピッチ角」とも称する)を測定する。ジャイロセンサ74は、バス94に接続されており、ジャイロセンサ74によって測定されたヨー角、ロール角、及びピッチ角を示す角度情報は、バス94等を介してCPU88によって取得される。
受付デバイス76は、本開示の技術に係る「受付デバイス」の一例であり、ユーザ18(図1及び図2参照)からの指示を受け付ける。受付デバイス76の一例としては、タッチパネル76A及びハードキー等が挙げられる。受付デバイス76は、バス94に接続されており、受付デバイス76によって受け付けられた指示は、CPU88によって取得される。
ディスプレイ78は、バス94に接続されており、CPU88の制御下で、各種情報を表示する。ディスプレイ78の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、ELディスプレイ(例えば、有機ELディスプレイ又は無機ELディスプレイ)等の他の種類のディスプレイがディスプレイ78として採用されてもよい。
ユーザデバイス14は、タッチパネル・ディスプレイを備えており、タッチパネル・ディスプレイは、タッチパネル76A及びディスプレイ78によって実現される。すなわち、ディスプレイ78の表示領域に対してタッチパネル76Aを重ね合わせることによって、あるいはディスプレイ78の内部にタッチパネル機能を内蔵(「インセル」型)することでタッチパネル・ディスプレイが形成される。なお、「インセル」型のタッチパネル・ディスプレイは、あくまでも一例に過ぎず、「アウトセル」型又は「オンセル」型のタッチパネル・ディスプレイであってもよい。
マイクロフォン80は、収集した音を電気信号に変換する。マイクロフォン80は、バス94に接続されている。マイクロフォン80によって収集された音が変換されて得られた電気信号は、バス94を介してCPU88によって取得される。
スピーカ82は、電気信号を音に変換する。スピーカ82は、バス94に接続されている。スピーカ82は、CPU88から出力された電気信号を、バス94を介して受信し、受信した電気信号を音に変換し、電気信号を変換して得た音をユーザデバイス14の外部に出力する。
撮像装置84は、被写体を撮像することで、被写体を示す画像を取得する。撮像装置84は、バス94に接続されている。撮像装置84によって被写体が撮像されることで得られた画像は、バス94を介してCPU88によって取得される。なお、撮像装置84によって撮像されることで得られた画像も、仮想視点画像46Cの生成に用いられるようにしてもよい。
通信I/F86は、ネットワーク20に対して無線通信可能に接続されている。通信I/F86は、例えば、回路(例えば、ASIC、FPGA、及び/又はPLD等)で構成されたデバイスによって実現される。通信I/F86は、バス94に接続されている。通信I/F86は、ネットワーク20を介して、無線通信方式で、CPU88と外部装置との間で各種情報の授受を司る。ここで、「外部装置」としては、例えば、画像処理装置12が挙げられる。
一例として図5に示すように、サッカーフィールド24(図1及び図2参照)内の対象人物96の視点位置及び視線方向は変化する。対象人物96は、本開示の技術に係る「対象物」及び「特定の人物」の一例である。図5に示す例では、時刻Aのときの対象人物96の視点位置及び視線方向、時刻Bのときの対象人物96の視点位置及び視線方向、並びに、時刻Cのときの対象人物96の視点位置及び視線方向が示されている。また、図5に示す例では、時刻A~時刻Bの各時刻での対象人物96の視点位置及び視線方向を基準にして画像処理装置12によって生成された仮想視点画像46Cが示されている。
ここで、対象人物96の視点位置及び視線方向を基準にして生成される仮想視点画像46Cとは、対象人物96の視点位置を仮想カメラ位置とし、対象人物96の視線方向を仮想カメラ向きとした場合の仮想カメラによって撮像されることで得られる仮想視点画像を指す。換言すると、対象人物96の視点位置及び視線方向から対象人物96が観察している領域を示す仮想視点画像を意味する。
なお、以下では、説明の便宜上、時刻Aの対象人物96の視点位置及び視線方向を基準にして生成された仮想視点画像46Cを“時刻Aの仮想視点画像46C”と称する。また、時刻Bの対象人物96の視点位置及び視線方向を基準にして生成された仮想視点画像46Cを“時刻Bの仮想視点画像46C”と称する。更に、時刻Cの対象人物96の視点位置及び視線方向を基準にして生成された仮想視点画像46Cを“時刻Cの仮想視点画像46C”と称する。
ところで、時刻Bから時刻Cにかけての対象人物96の視点位置及び視線方向の時間変化量(具体的には、時間変化量の絶対値)は、時刻Aから時刻Bにかけての対象人物96の視点位置及び視線方向の時間変化量よりも多い。そのため、時刻Bの仮想視点画像46Cから時刻Cの仮想視点画像46Cの変化量も、時刻Aの仮想視点画像46Cから時刻Bの仮想視点画像46Cの変化量よりも多い。例えば、時刻A~時刻Cの仮想視点画像46Cが順次にユーザデバイス14のディスプレイ78に表示されると、仮想視点画像46Cを観賞しているユーザ18に対して視覚的な不快感(例えば、酔い)を与えてしまう虞がある。また、このような仮想視点画像46Cを継続して観賞し続けることにより眼精疲労が蓄積することも考えられる。
このような事情に鑑み、一例として図6に示すように、画像処理装置12では、ストレージ60に視点視線生成プログラム60A及び画像生成出力プログラム60Bが記憶されている。CPU58は、視点視線生成プログラム60Aに従って、後述の視点視線生成処理(図13参照)を実行する。また、CPU58は、画像生成出力プログラム60Bに従って、後述の画像生成出力処理(図14参照)を実行する。なお、以下では、視点視線生成プログラム60A及び画像生成出力プログラム60Bを区別して説明する必要がない場合、符号を付さずに「画像処理装置プログラム」と称する。また、以下では、視点視線生成処理及び画像生成出力処理を区別して説明する必要がない場合、符号を付さずに「画像処理装置側処理」と称する。
CPU58は、ストレージ60から画像処理装置プログラムを読み出し、画像処理装置プログラムをメモリ62上で実行することで、画像生成部102、出力部104、及び制御部106として動作する。制御部106は、視点視線算出部106A、取得部106B、及び視点位置視線方向生成部106Cを有する。
画像生成部102は、複数の撮像装置16によって撮像領域が撮像されることで得られた複数の撮像画像46Bに基づいて、撮像領域に含まれる対象人物96(図5参照)の視点位置及び視線方向を基準にして仮想視点画像46C(図5参照)を生成する。出力部104は、画像生成部102によって生成された仮想視点画像46Cを画像生成部102から取得してユーザデバイス14に出力する。
制御部106は、仮想視点画像46Cの表示態様(例えば、ユーザデバイス14のディスプレイ78での表示態様)を、対象人物96の視点位置及び視線方向の時間変化量に応じて制御する。例えば、制御部106は、実際の対象人物96の視点位置及び視線方向の時間変化量よりも少ない時間変化量に応じて、仮想視点画像46Cの表示態様を制御する。換言すると、制御部106は、対象人物96の視点位置及び視線方向の時間変化量を実際の変化量よりも少なくすることで、仮想視点画像46Cの表示態様を制御する。
一例として図7に示すように、複数の撮像装置16のうちの何れか1つの撮像装置16によって撮像領域が撮像されることで得られた撮像画像46Bは、ユーザデバイス14のディスプレイ78に表示される。ユーザ18は、撮像画像46B内の対象人物96が写り込んでいる領域を、タッチパネル76Aを介して指で指定する。ユーザデバイス14は、ユーザ18によって指定された領域を対象人物画像として画像生成部102に出力する。
画像生成部102は、複数の撮像装置16から複数の撮像画像46B(以下、「撮像画像群」とも称する)を取得する。撮像画像群に含まれる撮像画像46Bの各々には、撮像時刻が付与されている。撮像時刻は、例えば、Exif方式で撮像画像46Bに付随している。画像生成部102は、撮像画像群及びユーザデバイス14から入力された対象人物画像に対して画像解析(例えば、カスケード分類器及び/又はパターンマッチング等による画像解析)を行うことで、撮像画像群から、対象人物96が写り込んでいる複数の撮像画像46Bを特定する。そして、画像生成部102は、対象人物96が写り込んでいる複数の撮像画像46Bに基づいて、対象人物96を示す仮想視点画像46Cを生成する。
一例として図8に示すように、画像生成部102は、生成した仮想視点画像46Cを出力部104に出力する。出力部104は、画像生成部102から入力された仮想視点画像46Cをユーザデバイス14に出力することで、ユーザデバイス14のディスプレイ78に仮想視点画像46Cを表示させる。
一例として図9に示すように、撮像装置16によって撮像される撮像領域は、三次元領域36である。三次元領域36は、サッカーフィールド24が底面とされた直方体状に形成されている。三次元領域36は、原点36Aを有する三次元座標によって規定されている。図9に示す例では、サッカーフィールド24の四隅のうちの1つの隅に設定されている。三次元領域36の高さは、例えば、サッカーフィールド24の面積に応じて定められる。三次元領域36の高さは、既定範囲(図9に示す例では、数十メートル)内で定められている。「既定範囲」は、仮想カメラを設定可能な高さとして許容される範囲であり、例えば、複数の撮像装置16の各々の位置、向き、及び画角等に応じて一意に定められる。なお、三次元領域36の大きさ及び/又は形状は、与えられた条件に応じて変更されてもよいし、固定されていてもよい。
画像生成部102は、生成した仮想視点画像46Cを視点視線算出部106Aに出力する。視点視線算出部106Aは、画像生成部102から入力された仮想視点画像46Cに基づいて、対象人物96の視点位置及び視線方向を算出する。画像生成部102では、対象人物96を示す仮想視点画像46Cを生成するために複数の撮像画像46Bが用いられる。視点視線算出部106Aは、複数の撮像画像46Bを得るための撮像で用いられた複数の撮像装置16のうちの第1撮像装置及び第2撮像装置の撮像位置及び撮像方向から、三角測量法を用いて、対象人物96の視点位置を算出する。視点位置は、三次元領域36の位置を特定可能な三次元座標で表される。
視点視線算出部106Aは、画像生成部102から入力された仮想視点画像46Cに対して瞳検出処理を実行することで、画像生成部102から入力された仮想視点画像46Cにより示される対象人物96の瞳を検出する。瞳検出処理については周知技術なので、ここでの説明は省略する。視点視線算出部106Aは、瞳を検出した結果(瞳検出処理結果)を用いて、対象人物96の視線方向を算出する。具体的には、対象人物96の眼内での瞳の位置から、パン方向及びチルト方向を特定可能な2次元座標が算出され、算出された2次元座標が、対象人物96の視線方向として用いられる。
なお、対象人物96の視線方向の算出方法はこれに限定されず、例えば、仮想視点画像46Cにより示される対象人物96の顔の向きを対象人物96の視線方向としてもよい。
取得部106Bは、タイマ106B1を有する。タイマ106B1は、時間間隔Δtを計測する。時間間隔Δtは、仮想視点画像46Cを生成する時間間隔であり、仮想視点画像46Cが出力先(例えば、ユーザデバイス14)に出力されてディスプレイ78に表示される時間間隔でもある。
取得部106Bは、視点視線算出部106Aによって算出された視点位置及び視線方向を視点視線算出部106Aから取得する。取得部106Bは、視点視線算出部106Aから最初に視点位置及び視線方向を取得した時点での現在時刻(以下、単に「時刻」とも称する)tをRTC51から取得する。以降、時刻tは、時間間隔Δtが加算されることによって更新される。
取得部106Bは、視点視線算出部106Aから最初に視点位置及び視線方向を取得した時点から時間間隔Δt毎に視点視線算出部106Aから新たに視点位置及び視線方向を取得する。取得部106Bは、視点視線算出部106Aから新たに視点位置及び視線方向を取得する毎に、1回前に視点位置及び視線方向を取得した時点での時刻tに時間間隔Δtを加算することで時刻tを更新する。そして、取得部106Bは、時刻t毎に視点位置及び視線方向をメモリ62の第1記憶領域62Aに時系列データ108として記憶する。
時系列データ108は、時刻t、視点位置、及び視線方向が時系列で並べられたデータある。図10に示す例では、取得部106Bによる視点位置及び視線方向の取得回数が最新の3回分の時刻t、視点位置、及び視線方向が時系列データ108として示されている。第1記憶領域62Aには、時刻t、視点位置、及び視線方向がFIFO方式で記憶され、これにより、時系列データ108が時間間隔Δt毎に更新される。
一例として図11に示すように、視点位置視線方向生成部106Cは、第1記憶領域62Aから、時系列データ108内の最も過去の時刻tを取得する。ここで、時系列データ108内の最も過去の時刻tとは、時系列データ108のうちの最新の時刻tよりも2×Δt秒前の時刻tを指す。視点位置視線方向生成部106Cは、第1記憶領域62Aから時系列データ108内の全ての視点位置(以下、「視点位置群」とも称する)及び全ての視線方向(以下、「視線方向群」とも称する)を取得する。
視点位置視線方向生成部106Cは、視点位置生成処理を実行することで、視点位置群の時間変化量を実際の時間変化量よりも少なくするように視点位置群を用いて画像生成用視点位置を生成する。
この場合、視点位置群の時間変化量が平滑化されることによって、視点位置群の時間変化量が実際の時間変化量よりも少なくされる。視点位置群の時間変化量の平滑化は、視点位置の時系列の変化量の平滑化によって実現される。視点位置の時系列の変化量の平滑化は、例えば、視点位置群の平滑化によって実現される。視点位置群の平滑化の一例としては、視点位置群の移動平均が挙げられる。視点位置視線方向生成部106Cは、視点位置群を平滑化することで、視点位置群に基づく画像生成用視点位置を生成する。画像生成用視点位置は、本開示の技術に係る「調整位置」の一例であり、仮想視点画像46Cを再生成する場合において対象人物96の新たな視点位置として用いられる。
視点位置視線方向生成部106Cは、視線方向生成処理を実行することで、視線方向群の時間変化量を実際の時間変化量よりも少なくするように視線方向群を用いて画像生成用視線方向を生成する。
この場合、視線方向群の時間変化量が平滑化されることによって、視線方向群の時間変化量が実際の時間変化量よりも少なくされる。視線方向群の時間変化量の平滑化は、視線方向の時系列の変化量の平滑化によって実現される。視線方向の時系列の変化量の平滑化は、例えば、視線方向群の平滑化によって実現される。視線方向群の平滑化の一例としては、視線方向群の移動平均が挙げられる。視点位置視線方向生成部106Cは、視線方向群を平滑化することで、視線方向群に基づく画像生成用視線方向を生成する。画像生成用視線方向、本開示の技術に係る「調整向き」の一例であり、仮想視点画像46Cを再生成する場合において対象人物96の新たな視線方向として用いられる。
視点位置視線方向生成部106Cは、第1記憶領域62Aから取得した時刻tを画像生成用時刻とし、画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向を関連付けてメモリ62の第2記憶領域62Bに記憶する。第2記憶領域62Bに対する画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向の記憶は、上書き保存である。従って、第2記憶領域62Bに記憶されている画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向は、視点位置視線方向生成部106Cによって新たな画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向が第2記憶領域62Bに上書き保存されることで更新される。
一例として図12に示すように、画像生成部102は、第2記憶領域62Bに新たな画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向が記憶されると、第2記憶領域62Bから画像生成用時刻、画像生成用視点位置、及び画像生成用視線方向を取得する。画像生成部102は、撮像画像群から、画像生成用時刻と同一の撮像時刻の複数の撮像画像46B(以下、「画像生成用時刻画像群」とも称する)を取得する。そして、画像生成部102は、画像生成用時刻画像群に基づいて、第2記憶領域62Bから取得した画像生成用視点位置及び画像生成用視線方向を基準にして仮想視点画像46Cを生成する。
画像生成部102は、新たなに生成した仮想視点画像46Cを出力部104に出力する。出力部104は、画像生成部102から入力された新たな仮想視点画像46Cをユーザデバイス14に出力することで、ユーザデバイス14のディスプレイ78に新たな仮想視点画像46Cを表示させる。出力部104は、ディスプレイ78に既に仮想視点画像46Cが表示されている状態で、新たな仮想視点画像46Cをユーザデバイス14に出力することで、ディスプレイ78に表示されている仮想視点画像46Cを新たな仮想視点画像46Cに更新する。すなわち、出力部104は、ディスプレイ78に表示されている仮想視点画像46Cを新たな仮想視点画像46Cに更新することで、仮想視点画像46Cの表示態様を制御する。
このように、CPU58は、画像生成用視点位置及び画像生成用視線方向を基準にして仮想視点画像46Cを生成してユーザデバイス14に出力することで、ユーザデバイス14のディスプレイ78に表示されている仮想視点画像46Cの表示態様を制御する。
次に、画像処理システム10の作用について説明する。
先ず、画像処理装置12のCPU58によって視点視線生成プログラム60Aに従って実行される視点視線生成処理について図13を参照しながら説明する。なお、図13に示す視点視線生成処理及び後述の画像生成出力処理(図14参照)の流れは、本開示の技術に係る「画像処理方法」の一例である。また、以下の視点視線生成処理及び画像生成出力処理の説明では、説明の便宜上、画像生成部102によって、対象人物96を示す仮想視点画像46Cが既に生成されてユーザデバイス14のディスプレイ78に表示されていることを前提としている。
図13に示す視点視線生成処理では、先ず、ステップST10で、取得部106Bは、RTC51から現在時刻を取得し、その後、視点視線生成処理はステップST12へ移行する。
ステップST12で、取得部106Bは、タイマ106B1をオンすることでタイマ106B1に対して計時を開始させ、その後、視点視線生成処理はステップST14へ移行する。
ステップST14で、視点視線算出部106Aは、仮想視点画像46Cにより示される対象人物96の視点位置及び視線方向を算出し、その後、視点視線生成処理はステップST16へ移行する。
ステップST16で、取得部106Bは、時刻tを取得し、かつ、ステップST14で算出された視点位置及び視線方向を取得する。時刻tは、後述のステップST32の処理が実行される毎に時間間隔Δtが加算されることによって更新される。そして、取得部106Bは、最新の時刻t、視点位置、及び視線方向を第1記憶領域62Aに時系列で記憶することで時系列データ108を更新し、その後、視点視線生成処理はステップST18へ移行する。
ステップST18で、取得部106Bは、第1記憶領域62Aの記憶内容を参照して、取得部106Bによる視点位置及び視線方向の取得回数が3回以上であるか否かを判定する。ステップST18において、取得部106Bによる視点位置及び視線方向の取得回数が3回未満の場合は、判定が否定されて、視点視線生成処理はステップST20へ移行する。ステップST18において、取得部106Bによる視点位置及び視線方向の取得回数が3回以上の場合は、判定が肯定されて、視点視線生成処理はステップST24へ移行する。
ステップST20で、取得部106Bは、タイマ106B1により時間間隔Δtが計測されたか否かを判定する。ステップST20において、タイマ106B1により時間間隔Δtが計測されていない場合は、判定が否定されて、ステップST20の判定が再び行われる。ステップST20において、タイマ106B1により時間間隔Δtが計測された場合は、判定が肯定されて、視点視線生成処理はステップST22へ移行する。
ステップST22で、取得部106Bは、タイマ106B1をオフしてリセットする。そして、取得部106Bは、時刻tに時間間隔Δtを加算することで時刻tを更新し、その後、視点視線生成処理はステップST12へ移行する。
ステップST24で、視点位置視線方向生成部106Cは、第1記憶領域62A内の時系列データ108から、最新の3回分の視点位置及び視線方向、すなわち、視点位置群及び視線方向群を取得し、その後、視点視線生成処理はステップST26へ移行する。
ステップST26で、視点位置視線方向生成部106Cは、視点位置群を平滑化することで画像生成用視点位置を生成し、その後、視点視線生成処理はステップST28へ移行する。
ステップST28で、視点位置視線方向生成部106Cは、視線方向群を平滑化することで画像生成用視線方向を生成し、その後、視点視線生成処理はステップST30へ移行する。
ステップST30で、視点位置視線方向生成部106Cは、画像生成用時刻(図11に示す例では、時系列データ108内の最も過去の時刻t)、ステップST26で生成された最新の画像生成用視点位置、及びステップST28で生成された最新の画像生成用視線方向を第2記憶領域62Bに上書き保存することで第2記憶領域62Bの記憶内容を更新する。ステップST30の処理が実行された後、視点視線生成処理はステップST32へ移行する。
ステップST32で、視点位置視線方向生成部106Cは、視点視線生成処理を終了させる条件(以下、「視点視線生成処理終了条件」とも称する)を満足したか否かを判定する。視点視線生成処理終了条件の一例としては、画像処理装置12に対して、視点視線生成処理を終了させる指示が与えられた、との条件が挙げられる。視点視線生成処理を終了させる指示は、例えば、受付デバイス52又は76によって受け付けられる。ステップST32において、視点視線生成処理終了条件を満足していない場合は、判定が否定されて、視点視線生成処理はステップST20へ移行する。ステップST32において、視点視線生成処理終了条件を満足した場合は、判定が肯定されて、視点視線生成処理が終了する。
次に、画像処理装置12のCPU58によって画像生成出力プログラム60Bに従って実行される画像生成出力処理について図14を参照しながら説明する。
図14に示す画像生成出力処理では、先ず、ステップST50で、画像生成部102は、ステップST30の処理が実行されることによって第2記憶領域62Bの記憶内容が更新されたか否かを判定する。ステップST50において、ステップST30の処理が実行されることによって第2記憶領域62Bの記憶内容が更新されていない場合は、判定が否定されて、画像生成出力処理はステップST60へ移行する。ステップST50において、ステップST30の処理が実行されることによって第2記憶領域62Bの記憶内容が更新された場合は、判定が肯定されて、画像生成出力処理はステップST52へ移行する。
ステップST52で、画像生成部102は、第2記憶領域62Bから、画像生成用視点位置、画像生成用視線方向、及び画像生成用時刻を取得し、その後、画像生成出力処理はステップST54へ移行する。
ステップST54で、画像生成部102は、撮像画像群から、ステップST52で取得した画像生成用時刻と同一の撮像時刻の複数の撮像画像46B、すなわち、画像生成用時刻画像群を取得し、その後、画像生成出力処理はステップST56へ移行する。
ステップST56で、画像生成部102は、ステップST54で取得した画像生成用時刻画像群を用いて、ステップST52で取得した画像生成用視点位置及び画像生成用視線方向を基準にした仮想視点画像46Cを生成し、その後、画像生成出力処理はステップST58へ移行する。
ステップST58で、出力部104は、ステップST56で生成された仮想視点画像46Cをユーザデバイス14に出力する。ユーザデバイス14のCPU88は、出力部104から入力された仮想視点画像46Cをディスプレイ78に表示させる。ステップST58の処理が実行された後、画像生成出力処理はステップST60へ移行する。
ステップST60で、出力部104は、画像生成出力処理を終了させる条件(以下、「画像生成出力処理終了条件」とも称する)を満足したか否かを判定する。画像生成出力処理終了条件の一例としては、画像処理装置12に対して、画像生成出力処理を終了させる指示が与えられた、との条件が挙げられる。画像生成出力処理を終了させる指示は、例えば、受付デバイス52又は76によって受け付けられる。ステップST60において、画像生成出力処理終了条件を満足していない場合は、判定が否定されて、画像生成出力処理はステップST50へ移行する。ステップST60において、画像生成出力処理終了条件を満足した場合は、判定が肯定されて、画像生成出力処理が終了する。
一例として図14に示すように、視点視線生成処理及び画像生成出力処理を用いずに従来の手法で仮想視点画像46Cが生成される場合と、視点視線生成処理及び画像生成出力処理を用いて仮想視点画像46Cが生成される場合とを比較すると、前者よりも後者の方が仮想視点画像46Cの変化量が少ない。従って、画像処理システム10によれば、仮想視点画像46Cで対象人物96の視点位置及び視線方向がそのまま再現される場合に比べ、対象人物96の視点位置及び視線方向の時間変化が、仮想視点画像46Cの観賞者であるユーザ18に与える不快感を軽減することができる。
また、画像処理システム10では、実際の対象物の視点位置及び視線方向の時間変化量よりも少ない時間変化量に応じて表示態様が制御される。すなわち、対象人物96の視点位置及び視線方向の時間変化量が視点位置視線方向生成部106Cによって実際の時間変化量よりも少なくされることで、仮想視点画像46Cの表示態様が制御される。従って、本構成によれば、仮想視点画像46Cで対象人物96の視点位置及び視線方向の時間変化量がそのまま再現される場合に比べ、対象人物96の視点位置及び視線方向の時間変化が、仮想視点画像46Cの観賞者であるユーザ18に与える不快感を軽減することができる。
また、画像処理システム10では、対象人物96の視点位置及び視線方向の時間変化量が視点位置視線方向生成部106Cによって平滑化されることで対象人物96の視点位置及び視線方向に基づく画像生成用視点位置及び画像生成用視線方向が生成される。そして、画像生成用視点位置及び画像生成用視線方向を基準にして仮想視点画像46Cが生成されて出力されることで、仮想視点画像46Cの表示態様が制御される。従って、本構成によれば、対象人物96の視点位置及び視線方向の時間変化がそのまま仮想視点画像46Cに反映される場合に比べ、仮想視点画像46Cの急峻な変化を抑制することができる。
また、画像処理システム10では、時系列データ108に含まれる視点位置群及び視線方向群が移動平均されることで、対象人物96の視点位置及び視線方向の時間変化量が平滑化される。従って、本構成によれば、対象人物96の視点位置及び視線方向が時々刻々変化したとしても、対象人物96の視点位置及び視線方向の時間変化量の平滑化を追従させることができる。
なお、上記第1実施形態では、複数の撮像装置16は、互いの撮像位置及び撮像方向が異なっているが、本開示の技術はこれに限定されず、複数の撮像装置16は、互いの撮像位置又は撮像方向が異なっていてもよい。
また、上記実施形態では、対象人物96の視点位置及び視線方向の時間変化量に応じて仮想視点画像46Cの表示態様が制御されるようにしたが、本開示の技術はこれに限定されず、対象人物96の視点位置又は視線方向の時間変化量に応じて仮想視点画像46Cの表示態様が制御されるようにしてもよい。
また、対象人物96の視点位置の時間変化量及び対象人物96の視線方向の時間変化量に対して異なる重み値が付与されるようにしてもよい。重み値の一例としては、調整用係数が挙げられる。この場合、例えば、対象人物96の視線方向の時間変化量よりも対象人物96の視点位置の時間変化量を少なくするのであれば、対象人物96の視線方向の時間変化量に対して乗じる調整用係数を“1”とした場合、対象人物96の視点位置の時間変化量に対して乗じる調整用係数を小数にすればよい。逆に、対象人物96の視点位置の時間変化量よりも対象人物96の視線方向の時間変化量を少なくするのであれば、対象人物96の視点位置の時間変化量に対して乗じる調整用係数を“1”とした場合、対象人物96の視線方向の時間変化量に対して乗じる調整用係数を小数にすればよい。対象人物96の視点位置の時間変化量に乗じる調整用係数及び/又は対象人物96の視点位置の時間変化量に対して乗じる調整用係数は、固定値であってもよいし、与えられた指示及び/又は条件に応じて変更される可変値であってもよい。
調整用係数を可変値とする場合、例えば、視点位置の単位時間当たりの変化量及び視線方向の単位時間当たりの変化量の一方に対する他方の割合に応じて、対象人物96の視点位置の時間変化量に対して乗じる調整用係数及び対象人物96の視線方向の時間変化量に対して乗じる調整用係数を異ならせるようにすればよい。
具体的には、視点位置の単位時間当たりの変化量に対する視線方向の単位時間当たりの変化量の割合が基準割合(例えば、1.5)よりも大きい場合に、対象人物96の視点位置の時間変化量に対して乗じる調整用係数よりも対象人物96の視線方向の時間変化量に対して乗じる調整用係数を小さくするとよい。逆に、例えば、対象人物96の視線方向の単位時間当たりの変化量に対する対象人物96の視点位置の単位時間当たりの変化量の割合が基準割合よりも大きい場合に、対象人物96の視線方向の時間変化量に対して乗じる調整用係数よりも対象人物96の視点位置の時間変化量に対して乗じる調整用係数を小さくすればよい。基準割合は、固定値であってもよいし、与えられた指示及び/又は条件に応じて変更される可変値であってもよい。
また、上記第1実施形態では、対象人物96を例示したが、本開示の技術はこれに限定されず、非人物(人間以外の物体)であってもよい。非人物としては、物体を認識可能なデバイス(例えば、物理カメラと物理カメラに接続されたコンピュータ等を含むデバイス)が搭載されたロボット(例えば、人物、動物又は昆虫等の生物を模したロボット)、動物、及び昆虫等が挙げられる。この場合、非人物の位置及び/又は向きの時間変化量に応じて仮想視点画像の表示態様が制御される。
また、上記第1実施形態では、時間変化量を例示したが、時間変化量の概念には、時間の1回微分の概念、又は時間の2回微分の概念も含まれる。
また、上記第1実施形態では、時間変化量が平滑化される視点位置群として最新の3回分の視点位置を例示し、時間変化量が平滑化される視線方向群として最新の3回分の視線方向を例示したが、本開示の技術はこれに限定されない。最新の2回分の視点位置、又は、最新の4回分以上の視点位置を視点位置群として視点位置群の時間変化量が平滑化されるようにしてもよい。また、最新の2回分の視線方向、又は、最新の4回分以上の視線方向を視線方向群として視線方向群が平滑化されるようにしてもよい。
[第2実施形態]
上記第1実施形態では、時間間隔Δtが固定されている形態例を挙げて説明したが、本第2実施形態では、時間間隔Δtが条件に応じて変更される形態例について説明する。なお、本第2実施形態では、上記第1実施形態と同一の構成要素については同一の符号を付し、その説明を省略する。本第2実施形態では、上記第1実施形態と異なる部分について説明する。
一例として図15に示すように、本第2実施形態に係る画像処理装置12において、CPU58は、更に、変更部110として動作する。変更部110は、対象人物96の視点位置及び視線方向の時間変化量に応じて時間間隔Δtを変更する。なお、ここでは、説明の便宜上、対象人物96の視点位置及び視線方向の時間変化量を例示しているが、上述したように、対象人物96の視点位置又は視線方向の時間変化量であっても本開示の技術は成立する。
変更部110は、時間変化量算出部110A及び時間間隔変更部110Bを有する。時間変化量算出部110Aは、時系列データ108から視点位置群及び視線方向群を取得する。時間変化量算出部110Aは、時系列データ108から取得した視点位置群の時間変化量を算出する。ここで、視点位置群の時間変化量の一例としては、第1記憶領域62Aに記憶された時刻が隣接する視点位置間の時間変化量の平均値が挙げられる。また、時間変化量算出部110Aは、時系列データ108から取得した視線方向群の時間変化量を算出する。ここで、視線方向群の時間変化量の一例としては、第1記憶領域62Aに記憶された時刻が隣接する視線方向間の時間変化量の平均値が挙げられる。
時間間隔変更部110Bは、時間変化量算出部110Aによって算出された時間変化量に応じてタイマ106B1で計測される時間間隔Δtを変更する。以下、より詳しく説明する。
時間間隔変更部110Bは、視点位置群の時間変化量が第1閾値以上であり、かつ、視線方向群の時間変化量が第2閾値以上の場合、時間間隔Δtが通常時間間隔以上であることを条件に、時間間隔Δtを通常時間間隔よりも短くする。通常時間間隔は、デフォルトで設定された時間間隔である。通常時間間隔は、固定されていてもよいし、与えられた指示及び/又は条件等に応じて変更されるようにしてもよい。ここで、通常時間間隔は、本開示の技術に係る「第1~第4基準時間間隔」の一例である。
なお、以下では、説明の便宜上、視点位置群の時間変化量が第1閾値以上であるとの条件、及び、視線方向群の時間変化量が第2閾値以上の条件を満たした場合を、「時間変化量が閾値以上の場合(時間変化量≧閾値)」とも称する。また、視点位置群の時間変化量が第1閾値以上であるとの条件、及び/又は視線方向群の時間変化量が第2閾値以上であるとの条件を満たしてない場合、「時間変化量が閾値未満の場合(時間変化量<閾値)」とも称する。また、視点位置群の時間変化量及び視線方向群の時間変化量を総じて「時間変化量」とも称する。ここで、閾値は、本開示の技術に係る「第1既定値」の一例である。
また、時間間隔変更部110Bは、時間変化量が閾値未満の場合、時間間隔Δtが通常時間間隔と異なることを条件に、時間間隔Δtを通常時間間隔にする。
図16A~図16Cには、本第2実施形態に係る視点視線生成処理の流れの一例が示されている。図16A~図16Cに示すフローチャートは、図13に示すフローチャートに比べ、ステップST102~ステップST112を有する点が異なる。
図16Aに示すステップST24の処理が実行された後、視点視線生成処理はステップST102へ移行する。
ステップST102で、時間変化量算出部110Aは、ステップST24で取得した視点位置群及び視線方向群を用いて、時間変化量を算出し、その後、視点視線生成処理はステップST104へ移行する。
ステップST104で、時間間隔変更部110Bは、ステップST102で算出された時間変化量が閾値未満か否かを判定する。ステップST104において、ステップST102で算出された時間変化量が閾値以上の場合は、判定が否定されて、視点視線生成処理は、図16Bに示すステップST106へ移行する。ステップST104において、ステップST102で算出された時間変化量が閾値未満の場合は、判定が肯定されて、視点視線生成処理は、図16Cに示すステップST110へ移行する。
図16Bに示すステップST106で、時間間隔変更部110Bは、時間間隔Δtが通常時間間隔未満であるか否かを判定する。ステップST106において、時間間隔Δtが通常時間間隔未満の場合は、判定が肯定されて、視点視線生成処理は、図16Cに示すステップST26へ移行する。ステップST106において、時間間隔Δtが通常時間間隔以上の場合は、判定が否定されて、視点視線生成処理はステップST108へ移行する。
ステップST108で、時間間隔変更部110Bは、時間間隔Δtを通常時間間隔未満の既定の第1時間間隔に変更し、その後、視点視線生成処理は、図16Aに示すステップST20へ移行する。なお、ここで、既定の第1時間間隔は、固定されていてもよいし、通常時間間隔未満の範囲内で、与えられた指示及び/又は条件等に応じて変更されてもよい。
図16Cに示すステップST110で、時間間隔変更部110Bは、時間間隔Δtが通常時間間隔であるか否かを判定する。ステップST110において、時間間隔Δtが通常時間間隔でない場合は、判定が否定されて、視点視線生成処理はステップST112へ移行する。ステップST110において、時間間隔Δtが通常時間間隔の場合は、判定が肯定されて、視点視線生成処理はステップST26へ移行する。
ステップST112で、時間間隔変更部110Bは、時間変化量に関わらず時間間隔Δtを通常時間間隔に変更し、その後、視点視線生成処理はステップST32へ移行する。
以上説明したように、本第2実施形態では、対時間変化量に応じて時間間隔Δtが変更される。従って、本構成によれば、時間変化量に関わらず時間間隔Δtが不変の場合に比べ、仮想視点画像46Cの急峻な変化を抑制することができる。
また、本第2実施形態では、時間変化量が閾値以上の場合に、時間間隔Δtが通常時間間隔よりも短くされる。従って、本構成によれば、時間変化量に関わらず、常に時間間隔Δtが一定の場合に比べ、対象人物96の視点位置及び視線方向の細やかな時間変化を、仮想視点画像46の観賞者であるユーザ18に対して実感させることができる。
更に、本第2実施形態では、時間変化量が閾値未満であり、かつ、時間間隔Δtが通常時間間隔と異なる場合に、時間間隔Δtが通常時間間隔にされる。従って、本構成によれば、時間変化量に関わらず、常に時間間隔Δtが一定の場合に比べ、対象人物96の視点位置及び視線方向の時間変化を、仮想視点画像46Cの観賞者であるユーザ18に対して適度な表示速度で実感させることができる。
なお、上記第2実施形態では、時間間隔変更部110Bが、時間変化量が閾値以上の場合に、時間間隔Δtが通常時間間隔以上であることを条件に、時間間隔Δtを通常時間間隔よりも短くするようにしたが、本開示の技術はこれに限定されない。例えば、時間間隔変更部110Bは、時間変化量が閾値以下の場合に、時間間隔Δtが通常時間間隔未満であることを条件に、時間間隔Δtを通常時間間隔以上にするようにしてもよい。また、時間間隔変更部110Bは、時間変化量が閾値を超えた場合、時間間隔Δtが通常時間間隔と異なることを条件に、時間間隔Δtを通常時間間隔にするようにしてもよい。
この場合、図16A及び図16Bに示す視点視線生成処理は、図17A及び図17Bに示す視点視線生成処理に変更される。図17A及び図17Bに示すフローチャートは、図16A及び図16Bに示すフローチャートに比べ、ステップST104に代えてステップST204を有する点、ステップST106に代えてステップST206を有する点、及びステップST108に代えてステップST208を有する点が異なる。
図17Aに示すステップST204で、時間間隔変更部110Bは、ステップST102で算出された時間変化量が閾値を超えているか否かを判定する。ステップST204において、ステップST102で算出された時間変化量が閾値以下の場合は、判定が否定されて、視点視線生成処理は、図17Bに示すステップST206へ移行する。ステップST204において、ステップST102で算出された時間変化量が閾値を超えている場合は、判定が肯定されて、視点視線生成処理は、図16Cに示すステップST110へ移行する。
図17Bに示すステップST206で、時間間隔変更部110Bは、時間間隔Δtが通常時間間隔以上であるか否かを判定する。ステップST206において、時間間隔Δtが通常時間間隔以上の場合は、判定が肯定されて、視点視線生成処理は、図16Cに示すステップST26へ移行する。ステップST206において、時間間隔Δtが通常時間間隔未満の場合は、判定が否定されて、視点視線生成処理はステップST208へ移行する。
ステップST208で、時間間隔変更部110Bは、時間間隔Δtを通常時間間隔以上の既定の第2時間間隔に変更し、その後、視点視線生成処理は、図17Aに示すステップST20へ移行する。なお、ここで、既定の第2時間間隔は、固定されていてもよいし、通常時間間隔以上の範囲内で、与えられた指示及び/又は条件等に応じて変更されてもよい。
このように、図17A及び図17Bに示す視点視線生成処理が実行されると、時間変化量が閾値以下の場合に、時間間隔Δtが通常時間間隔未満であることを条件に、時間間隔Δtが時間間隔変更部110Bによって通常時間間隔以上にされる。従って、本構成によれば、時間変化量に関わらず、常に時間間隔Δtが一定の場合に比べ、対象人物96の視点位置及び視線方向の大まかな時間変化を、仮想視点画像46の観賞者であるユーザ18に対して実感させることができる。
また、図17A及び図17Bに示す視点視線生成処理が実行されると、時間変化量が閾値を超えた場合、時間間隔Δtが通常時間間隔と異なることを条件に、時間間隔Δtが時間間隔変更部110Bによって通常時間間隔にされる。従って、本構成によれば、時間変化量に関わらず、常に時間間隔Δtが一定の場合に比べ、対象人物96の視点位置及び視線方向の時間変化を、仮想視点画像46Cの観賞者であるユーザ18に対して適度な表示速度で実感させることができる。
また、上記第2実施形態では、時間変化量が閾値未満であり、かつ、時間間隔Δtが通常時間間隔と一致している場合(図16Cに示すステップST110において判定が肯定された場合)に、画像生成用視点位置及び画像生成用視線方向が生成されて、画像生成用視点位置及び画像生成用視線方向を基準にした仮想視点画像46Cが生成されるが(図14に示すステップST56)、本開示の技術はこれに限定されない。例えば、時間間隔変更部110Bは、時間変化量が既定範囲である場合に、仮想視点画像46Cの表示態様が時間変化量に応じて制御されるようにしてもよい。
この場合、例えば、図16Aに示す視点視線生成処理が図18に示す視点視線生成処理に変更される。図18に示すフローチャートは、図16Aに示すフローチャートに比べ、ステップST104に代えてステップST304を有する点が異なる。
図18に示すステップST304で、時間間隔変更部110Bは、時間変化量が閾値未満か否かを判定する。ステップST304において、時間変化量が閾値以上の場合は、判定が否定されて、視点視線生成処理は、図16Cに示すステップST26へ移行する。ステップST304において、時間変化量が閾値未満の場合は、判定が肯定されて、視点視線生成処理はステップST20へ移行する。
これにより、時間変化量が閾値以上の場合に限り、新たに画像生成用視点位置及び画像生成用視線方向が生成されて(図16Cに示すステップST26及びST28参照)、画像生成用視点位置及び画像生成用視線方向を基準にした仮想視点画像46Cが生成される。従って、本構成によれば、時間変化量が閾値以上の場合に限り、仮想視点画像46Cの表示態様が時間変化量に応じて制御されるので、時間変化量に関わらず常に画像生成用視点位置及び画像生成用視線方向が生成される場合に比べ、対象人物96の視点位置及び視線方向の時間変化を、仮想視点画像46の観賞者であるユーザ18に対して実感させることができる。
なお、図18に示す例では、ステップST304で、時間間隔変更部110Bが、時間変化量が閾値未満か否かを判定するようにしたが、本開示の技術はこれに限定されず、ステップST304にて、時間間隔変更部110Bが、時間変化量が閾値以上か否かを判定するようにしてもよい。この場合も、同様の効果が期待できる。また、ステップST304にて、時間間隔変更部110Bが、時間変化量が閾値以上か否かを判定する形態例では、ステップST304において時間変化量が閾値未満の場合、判定が否定されて、視点視線生成処理が、図17Bに示すステップST208へ移行するようにしてもよい。
また、図18に示す例では、ステップST304において、判定が否定された場合、視点視線生成処理が、図16Cに示すステップST110へ移行する形態例を示したが、本開示の技術はこれに限定されない。例えば、ステップST304において、判定が否定された場合、視点視線生成処理が、図16Bに示すステップST106へ移行するようにしてもよい。
また、上記第2実施形態では、時間間隔変更部110Bが、時間変化量算出部110Aによって算出された時間変化量に従って時間間隔Δtを変更するようにしたが、本開示の技術はこれに限定されない。例えば、CPU58が、更に、ユーザデバイス14の受付デバイス76によって受け付けられた指示に従って時間間隔Δtを変更するようにしてもよい。この場合、一例として図19に示すように、ユーザデバイス14のタッチパネル76Aによって、新たな時間間隔Δtの指示である時間間隔指示が受け付けられると、時間間隔変更部110Bが、時間間隔指示に従って時間間隔Δtを新たな時間間隔Δtに変更する。ここでは、タッチパネル76Aによって時間間隔指示が受け付けられる形態例を挙げて説明したが、ハードキーを用いた時間間隔指示であってもよいし、音声認識処理を用いた時間間隔指示であってもよい。このように、受付デバイス76によって受け付けられた指示に従って時間間隔Δtが変更されることで、時間間隔Δtが短過ぎたり、長過ぎたりしないようにすることができる。この結果、仮想視点画像46Cの観賞者であるユーザ18に対して、仮想視点画像46Cが表示される時間間隔を短過ぎに感じさせたり、長過ぎに感じさせたりしないようにすることができる。
また、ユーザデバイス14の受付デバイス76によって受け付けられた指示に従って時間間隔Δtが変更される場合、受付デバイス76によって受け付けられる指示は、一例として図20に示すように、仮想視点画像46Cの表示速度に関する指示(表示速度指示)であってもよい。表示速度指示は、例えば、仮想視点画像46Cをディスプレイ78に表示させる速度、すなわち、再生速度の指示である。このように、受付デバイス76によって受け付けられた指示を表示速度指示とすることで、時間間隔Δtを仮想視点画像46Cの表示速度に合わせることできる。
ここで、例えば、時間間隔変更部110Bは、表示速度を基準表示速度と同じにする指示が受付デバイス76によって受け付けられた場合、時間間隔Δtを通常時間間隔と同一の時間間隔に変更する。なお、基準表示速度は、本開示の技術に係る「第1基準表示速度」及び「第2基準表示速度」の一例であり、基準表示速度は、固定されていてもよいし、与えられた指示及び/又は条件等に応じて変更されてもよい。
また、例えば、時間間隔変更部110Bは、表示速度を基準表示速度よりも速くする指示が受付デバイス76によって受け付けられた場合、時間間隔Δtを通常時間間隔よりも短くする。これにより、仮想視点画像46Cの表示速度を基準表示速度よりも速くする指示が受け付けられたにも関わらず、時間間隔Δtが常に一定の場合に比べ、仮想視点画像46Cの表示速度を基準表示速度よりも速くする指示が受け付けられた場合に、対象人物96の視点位置及び視線方向の大まかな時間変化を、仮想視点画像46の観賞者であるユーザ18に対して実感させることができる。
また、例えば、時間間隔変更部110Bは、表示速度を基準表示速度よりも遅くする指示が受付デバイス76によって受け付けられた場合、時間間隔Δtを通常時間間隔よりも長くする。これにより、仮想視点画像46Cの表示速度を基準表示速度よりも遅くする指示が受け付けられたにも関わらず、時間間隔Δtが常に一定の場合に比べ、仮想視点画像46Cの表示速度を基準表示速度よりも遅くする指示が受け付けられた場合に、対象人物96の視点位置及び視線方向の細やかな時間変化を、仮想視点画像46の観賞者であるユーザ18に対して実感させることができる。
また、上記各実施形態では、仮想視点画像46C内において解像度が一定とされているが、本開示の技術はこれに限定されない。例えば、図21に示すように、仮想視点画像46Cの表示領域が、対象人物96の視線方向と正対している正対領域と、正対領域を取り囲む周辺領域(図21に示すハッチング領域)とに分けられ、画像生成部102は、周辺領域の解像度を正対領域の解像度よりも低くするようにしてもよい。これにより、仮想視点画像46Cの観賞者であるユーザ18に対して、対象人物96が注目していると予想される領域(図21に示す例では、正対領域)とそれ以外の領域(図21に示す例では、周辺領域)とを区別して実感させることができる。
また、図22に示すように、画像生成部102は、周辺領域(図22に示すハッチング領域)の解像度を正対領域から離れるほど低くするようにしてもよい。これにより、仮想視点画像46Cの観賞者であるユーザ18に対して、対象人物96が注目していると予想される領域(図22に示す例では、正対領域)とそれ以外の領域(図22に示す例では、ハッチング領域)とを区別して実感させることができる。
また、CPU58は、仮想視点画像46Cとは異なる別画像であって、撮像領域のうちの少なくとも一部を示す別画像を得るための撮像方向と対象人物96の視線方向とのずれに基づいて、別画像と仮想視点画像46Cとの位置関係を示す情報を生成して出力するようにしてもよい。この場合、一例として図23に示すように、CPU58は、更に、位置関係情報生成部112として動作する。画像生成部102は、外部(例えば、ユーザデバイス14)から与えられた別画像生成指示に応じて、撮像画像群を用いて別画像46Dを生成する。別画像生成指示は、例えば、生中継用画像、録画された画像(例えば、リプレイ画像)、又は対象人物96の視点位置及び視線方向とは異なる仮想カメラ位置及び仮想カメラ向きの仮想カメラによって撮像されることで得られた仮想視点画像を生成する指示である。なお、別画像46Dは、本開示の技術に係る「表示用画像」の一例である。
画像生成部102は、仮想視点画像46と、別画像生成指示に応じて生成した別画像46Dとを位置関係情報生成部112に出力する。位置関係情報生成部112は、別画像46Dを得るために用いられた撮像方向と対象人物96の視線方向とを取得する。別画像46Dを得るために用いられた撮像方向は、別画像46Dを得るための撮像が複数の撮像装置16によって行われた場合、例えば、複数の撮像装置16の撮像方向の平均値が、別画像46Dを得るために用いられた撮像方向とされる。
位置関係情報生成部112は、別画像46Dを得るために用いられた撮像方向と対象人物96の視線方向とのずれ量及びずれ方向を算出し、ずれ量及びずれ方向に基づいて、画像生成部102から入力された仮想視点画像46及び別画像46Dの位置関係を示す位置関係情報を生成する。位置関係情報は、仮想視点画像46Cの観賞者、すなわち、ユーザ18に対して視覚的に認識させる情報である。図23に示す例では、位置関係情報の一例として、矢印が挙げられている。矢印が指し示す方向は、別画像46Dから仮想視点画像46Cへの方向である。
位置関係情報生成部112は、位置関係情報として矢印を別画像46D内に重畳させる。矢印は、別画像46Dの中央部から仮想視点画像46Cの方向を指し示す。矢印が重畳された別画像46Dは、ユーザデバイス14のディスプレイ78に表示される。
別画像46Dに重畳される矢印(以下、「重畳矢印」とも称する)の長さは、別画像46Dの位置と仮想視点画像46Cの位置との距離(例えば、ずれ量)に応じて、位置関係情報生成部112によって伸縮される。例えば、図24に示す重畳矢印は、図23に示す重畳矢印に比べ、短い。図24に示す重畳矢印の長さは、別画像46Dを得るために用いられた撮像方向と対象人物96の視線方向とのずれ量に応じて、位置関係情報生成部112によって、図23に示す重畳矢印に戻されたり、図23に示す重畳矢印よりも長くされたりする。また、別画像46Dを得るために用いられた撮像方向と対象人物96の視線方向とのずれ方向が変更されると、これに応じて、重畳矢印の向きも位置関係情報生成部112によって変更される。
このように、図23及び図24に示す例では、別画像を得るための撮像方向と対象人物96の視線方向とのずれに基づいて、別画像と仮想視点画像46Cとの位置関係を示す位置関係情報が生成されて出力される。また、位置関係情報は、仮想視点画像46Cの観賞者であるユーザ18に対して、視覚的に認識させる情報である。また、別画像と仮想視点画像46Cとの位置関係を示す位置関係情報として、別画像46Dから仮想視点画像46Cへの方向を指し示す矢印が採用されている。従って、本構成によれば、仮想視点画像46の観賞者であるユーザ18に対して、別画像46Dと仮想視点画像46Cとの位置関係を認識させることができる。なお、矢印は、あくまでも一例であり、別画像46Dから仮想視点画像46Cへの方向を視覚的に認識可能な情報であれば、他の画像又はテキスト等であってもよい。
また、図23及び図24に示す例では、重畳矢印の長さは、別画像46Dを得るために用いられた撮像方向と対象人物96の視線方向とのずれ量に応じて、伸縮される。従って、本構成によれば、仮想視点画像46Cの観賞者であるユーザ18に対して、別画像46Dと仮想視点画像46Cとの距離を視覚的に認識させることができる。
また、CPU58は、別画像46Dがディスプレイ78に表示されている状態で、別画像46Dから仮想視点画像46Cへの切替指示が与えられたことを条件に、ディスプレイ78に対して表示させる画像を別画像46Dから仮想視点画像46Cに切り替える制御を行うようにしてもよい。
この場合、一例として図25に示すように、CPU58は、更に、画像切替指示部114として動作する。ディスプレイ78に表示されている別画像46Dが表示されている状態で、重畳矢印が表示されている位置に対して、ユーザ18がタッチパネル76Aを介して指で触れることでユーザデバイス14に切替指示を与えると、ユーザデバイス14は、切替指示信号を画像切替指示部114に出力する。ここで、切替指示は、別画像46Dから仮想視点画像46Cへの切り替えの指示であり、切替指示信号は、別画像46Dから仮想視点画像46Cへの切り替えの指示を示す信号である。
画像切替指示部114は、切替指示信号が入力されると、画像生成部102に対して、別画像46Dから仮想視点画像46Cへの切り替えを指示する。これに応じて、画像生成部102は、仮想視点画像46Cを生成する。出力部104は、画像生成部102によって生成された仮想視点画像46Cをユーザデバイス14に出力することで、ディスプレイ78に表示されている別画像46Dを仮想視点画像46Cに切り替える。これにより、ディスプレイ78に表示される画像を、ユーザ18が意図するタイミングで、別画像46Dから仮想視点画像46Cに切り替えることができる。
また、上記各実施形態では、ユーザデバイス14の一例としてスマートフォンを挙げたが、本開示の技術はこれに限定されず、一例として図26に示すように、ユーザデバイス14に代えてヘッドマウントディスプレイ116を適用しても本開示の技術は成立する。図26に示す例では、ヘッドマウントディスプレイ116は、本体部116A及び装着部116Bを備えている。ユーザ18にヘッドマウントディスプレイ116が装着される場合、本体部116Aはユーザ18の眼前に位置し、装着部116Bはユーザ18の頭部の上半部に位置する。装着部116Bは、数センチメートル程度の幅を有する帯状部材であり、ユーザ18の頭部の上半部に対して密着した状態で固定される。
本体部116Aは、各種の電気系デバイスを備えている。各種の電気系デバイスとしては、ユーザデバイス14のコンピュータ70に相当するコンピュータ、ユーザデバイス14の通信I/F86に相当する通信I/F、ユーザデバイス14のディスプレイ78に相当するディスプレイ、ユーザデバイス14のマイクロフォン80に相当するマイクロフォン、ユーザデバイス14のスピーカ82に相当するスピーカ、及びユーザデバイス14のジャイロセンサ74に相当するジャイロセンサ118が挙げられる。
装着部116Bには、バイブレータ120A及び120Bを備えている。バイブレータ120Aは、ユーザ18の左側頭部に面するように配置されており、バイブレータ120Bは、ユーザ18の右側頭部に面するように配置されている。
本体部116Aの各種の電気系デバイス、バイブレータ120A、及びバイブレータ120Bは、ユーザデバイス14のバス94に相当するバスを介して電気的に接続されている。
ここで、例えば、ユーザデバイス14のディスプレイ78と同様に、図25に示す別画像46Dが、ユーザ18の頭部の上半部に装着された状態のヘッドマウントディスプレイ116に表示されている場合について考える。ユーザ18は、重畳矢印が指し示す方向に向けて首を振ることで、装着部116B内のコンピュータは、ジャイロセンサ118による検出結果に基づいて、ユーザ18が首を振った方向(以下、「首振り方向」とも称する)を検出する。コンピュータは、検出した首振り方向と重畳矢印の指し示す方向とが一致したか否かを判定する。そして、コンピュータは、首振り方向と重畳矢印の指し示す方向とが一致した場合に、ヘッドマウントディスプレイ116に表示されている画像を別画像46Dから仮想視点画像46Cに切り替える。
また、別画像46Dと仮想視点画像46Cとの位置関係を示す情報は、仮想視点画像46Cの観賞者であるユーザ18に対して触覚的に認識させる情報であってもよい。この場合、例えば、コンピュータは、重畳矢印の指し示す方向がユーザ18から見て左側方向の場合に、バイブレータ120Aを振動させ、コンピュータは、重畳矢印の指し示す方向がユーザ18から見て右側方向の場合に、バイブレータ120Bを振動させる。バイブレータ120Bが振動している状態で、ユーザ18が右側に首を振ると、コンピュータは、ジャイロセンサ118による検出結果に基づいて、首振り方向が右方向であると判定し、ヘッドマウントディスプレイ116に表示されている画像を別画像46Dから仮想視点画像46Cに切り替える。また、バイブレータ120Aが振動している状態で、ユーザ18が左側に首を振ると、コンピュータは、ジャイロセンサ118による検出結果に基づいて、首振り方向が左方向であると判定し、ヘッドマウントディスプレイ116に表示されている画像を別画像46Dから仮想視点画像46Cに切り替える。
このように、バイブレータ120A及び120Bが選択的に振動することで、仮想視点画像46Cと別画像46Dとの位置関係がユーザ18によって触覚的に認識される。
また、別画像46Dと仮想視点画像46Cとの位置関係を示す情報は、仮想視点画像46Cの観賞者であるユーザ18に対して聴覚的に認識させる情報であってもよい。この場合、コンピュータは、重畳矢印の指し示す方向を示す音声がスピーカから出力されるようにスピーカを制御する。これにより、仮想視点画像46Cと別画像46Dとの位置関係がユーザ18によって聴覚的に認識される。
ここでは、音声がスピーカによってユーザ18に伝達される形態例を挙げたが、これはあくまでも一例に過ぎず、骨伝導方式でユーザ18に対して音声を伝達するようにしてもよい。
なお、別画像46Dと仮想視点画像46Cとの位置関係を示す情報は、ユーザ18に対して視覚的に認識させる情報、ユーザ18に対して聴覚的に認識させる情報、及びユーザ18に対して触覚的に認識させる情報のうちの少なくとも1つであればよい。
また、上記各実施形態では、1つの画像生成用時刻に関する仮想視点画像46Cが画像生成部102によって生成され、生成された仮想視点画像46Cが出力部104によってユーザデバイス14に出力される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、CPU58は、仮想視点画像46Cを時系列で並べた表示用画面を生成して出力するようにしてもよい。
この場合、例えば、第2記憶領域62Bに新たに画像生成用時刻が記憶される毎に画像生成用視点位置及び画像生成用視線方向を基準にした仮想視点画像46Cが画像生成部102によって生成される。そして、一例として図27に示すように、各画像生成用時刻に関する複数の仮想視点画像46Cを時系列で並べた表示用画面46Eが画像生成部102によって生成される。表示用画面46E内において、複数の仮想視点画像46Cは、例えば、アルファブレンドされて時系列に並べられる。また、一例として図28に示すように、表示用画面46E内において、正対領域の解像度は、周辺領域の解像度よりも高くてもよい。図28に示す例では、表示用画面46E内のうち、ハッチング領域が他の領域に比べ、解像度が低い。
このようにして画像生成部102によって生成された表示用画面46Eは、出力部104によってユーザデバイス14に出力され、ユーザデバイス14のディスプレイ78に表示される。これにより、仮想視点画像46Cの観賞者であるユーザ18は、表示用画面46Eを通して仮想視点画像46Cの変化の過程を把握することができる。
また、上記各実施形態では、サッカー競技場22を例示したが、これはあくまでも一例に過ぎず、野球場、ラグビー場、カーリング場、陸上競技場、競泳場、コンサートホール、野外音楽場、及び演劇会場等のように、複数の撮像装置16が設置可能であれば、如何なる場所であってもよい。
また、上記各実施形態では、コンピュータ50及び70を例示したが、本開示の技術はこれに限定されない。例えば、コンピュータ50及び/又は70に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ50及び/又は70に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
また、上記各実施形態では、画像処理装置側処理が画像処理装置12のCPU58によって実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。画像処理装置側処理に含まれる一部の処理がユーザデバイス14のCPU88によって実行されるようにしてもよい。また、CPU88に代えて、GPUを採用してもよいし、複数のCPUを採用してもよく、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって各種処理が実行されるようにしてもよい。
また、上記各実施形態では、ストレージ60に画像処理装置プログラムが記憶されているが、本開示の技術はこれに限定されず、一例として図29に示すように、任意の可搬型の記憶媒体200に画像処理装置プログラムが記憶されていてもよい。記憶媒体200は、非一時的記憶媒体である。記憶媒体200としては、例えば、SSD又はUSBメモリ等が挙げられる。記憶媒体200に記憶されている画像処理装置プログラムはコンピュータ50にインストールされ、CPU58は、画像処理装置プログラムに従って、画像処理装置側処理を実行する。
また、通信網(図示省略)を介してコンピュータ50に接続される他のコンピュータ又はサーバ装置等のプログラムメモリに画像処理装置プログラムを記憶させておき、画像処理装置12の要求に応じて画像処理装置プログラムが画像処理装置12にダウンロードされるようにしてもよい。この場合、ダウンロードされた画像処理装置プログラムに基づく画像処理装置側処理がコンピュータ50のCPU58によって実行される。
また、上記各実施形態では、CPU58を例示したが、本開示の技術はこれに限定されず、GPUを採用してもよい。また、CPU58に代えて、複数のCPUを採用してもよい。つまり、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって画像処理装置側処理が実行されるようにしてもよい。
画像処理装置側処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムに従って画像処理装置側処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、他のプロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで画像処理装置側処理を実行する。
画像処理装置側処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、画像処理装置側処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、画像処理装置側処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、画像処理装置側処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、画像処理装置側処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
また、上述した画像処理装置側処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (25)

  1. プロセッサと、
    前記プロセッサに内蔵又は接続されたメモリと、を備え、
    前記プロセッサは、
    撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力し、
    前記仮想視点画像の表示態様を実際の前記位置及び前記向きの時間変化量である第1時間変化量よりも少ない時間変化量である第2時間変化量に応じて制御する
    画像処理装置。
  2. プロセッサと、
    前記プロセッサに内蔵又は接続されたメモリと、を備え、
    前記プロセッサは、
    撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力し、
    前記位置及び前記向きのうちの少なくとも一方の時間変化量を平滑化することで前記位置及び前記向きに基づく調整位置及び調整向きを生成し、
    前記調整位置及び前記調整向きを基準にして前記仮想視点画像を生成して出力することで前記仮想視点画像の表示態様を制御する
    画像処理装置。
  3. 前記プロセッサは、前記位置及び前記向きの時系列の変化量を移動平均することで前記第2時間変化量を平滑化する請求項1に記載の画像処理装置。
  4. 前記プロセッサは、前記第2時間変化量が既定範囲である場合に、前記仮想視点画像の表示態様を前記第2時間変化量に応じて制御する請求項1又は請求項3に記載の画像処理装置。
  5. プロセッサと、
    前記プロセッサに内蔵又は接続されたメモリと、を備え、
    前記プロセッサは、
    撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力し、
    前記仮想視点画像の表示態様を前記位置及び前記向きのうちの少なくとも一方の時間変化量に応じて制御し、
    前記仮想視点画像を生成する時間間隔を前記時間変化量に応じて変更する
    画像処理装置。
  6. 前記プロセッサは、前記時間変化量が第1既定値以上の場合に、前記時間間隔を第1基準時間間隔よりも短くする請求項5に記載の画像処理装置。
  7. 前記プロセッサは、前記時間変化量が前記第1既定値未満であり、かつ、前記時間間隔が第2基準時間間隔と異なる場合に、前記時間間隔を前記第2基準時間間隔にする請求項6に記載の画像処理装置。
  8. 前記プロセッサは、前記時間変化量が第1既定値以下の場合に、前記時間間隔を第2基準時間間隔よりも長くする請求項5に記載の画像処理装置。
  9. 前記プロセッサは、前記時間変化量が前記第1既定値を超え、かつ、前記時間間隔が第2基準時間間隔と異なる場合に、前記時間間隔を前記第2基準時間間隔にする請求項8に記載の画像処理装置。
  10. 前記プロセッサは、更に、前記仮想視点画像を生成する時間間隔を、受付デバイスによって受け付けられた指示に従って変更する請求項5から請求項9の何れか一項に記載の画像処理装置。
  11. 前記指示は、前記仮想視点画像の表示速度に関する指示である請求項10に記載の画像処理装置。
  12. 前記プロセッサは、前記指示が前記表示速度を第1基準表示速度よりも遅くする指示の場合に、前記時間間隔を第3基準時間間隔よりも短くする請求項11に記載の画像処理装置。
  13. 前記プロセッサは、前記指示が前記表示速度を第2基準表示速度よりも速くする指示の場合に、前記時間間隔を第4基準時間間隔よりも長くする請求項11又は請求項12に記載の画像処理装置。
  14. 前記仮想視点画像の表示領域は、前記向きと正対している正対領域と前記正対領域を取り囲む周辺領域とに分けられ、
    前記プロセッサは、前記周辺領域の解像度を前記正対領域の解像度よりも低くする請求項1から請求項13の何れか一項に記載の画像処理装置。
  15. 前記プロセッサは、前記周辺領域の解像度を前記正対領域から離れるほど低くする請求項14の画像処理装置。
  16. 前記プロセッサは、前記仮想視点画像とは異なる表示用画像であって、前記撮像領域のうちの少なくとも一部を示す表示用画像を得るための撮像方向と前記向きとのずれに基づいて、前記表示用画像と前記仮想視点画像との位置関係を示す情報を生成して出力する請求項1から請求項15の何れか一項に記載の画像処理装置。
  17. 前記位置関係を示す情報は、前記仮想視点画像の観賞者に対して視覚的に認識させる情報である請求項16に記載の画像処理装置。
  18. 前記位置関係を示す情報は、前記表示用画像の位置から前記仮想視点画像の位置への方向を指し示す矢印である請求項17に記載の画像処理装置。
  19. 前記プロセッサは、前記矢印の長さを、前記表示用画像の位置と前記仮想視点画像の位置との間の距離に応じて伸縮させる請求項18に記載の画像処理装置。
  20. 前記位置関係を示す情報は、前記仮想視点画像の観賞者に対して触覚的に認識させる情報、及び聴覚的に認識させる情報のうちの少なくとも一方を含む情報である請求項16から請求項19の何れか一項に記載の画像処理装置。
  21. プロセッサと、
    前記プロセッサに内蔵又は接続されたメモリと、を備え、
    前記プロセッサは、
    撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力し、
    前記仮想視点画像の表示態様を前記位置及び前記向きのうちの少なくとも一方の時間変化量に応じて制御し、
    前記仮想視点画像とは異なる表示用画像であって、前記撮像領域のうちの少なくとも一部を示す表示用画像を得るための撮像方向と前記向きとのずれに基づいて、前記表示用画像と前記仮想視点画像との位置関係を示す情報を生成して出力し、
    前記表示用画像がディスプレイに表示されている状態で、前記表示用画像から前記仮想視点画像への切替指示が与えられたことを条件に、前記ディスプレイに対して表示させる画像を前記表示用画像から前記仮想視点画像に切り替える制御を行う
    画像処理装置。
  22. 前記プロセッサは、前記仮想視点画像を時系列で並べた表示用画面を生成して出力する請求項1から請求項21の何れか一項に記載の画像処理装置。
  23. 前記対象物は、特定の人物であり、
    前記位置は、前記人物の視点位置であり、
    前記向きは、前記人物の視線方向である請求項1から請求項22の何れか一項に記載の画像処理装置。
  24. 撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力すること、並びに、
    前記仮想視点画像の表示態様を実際の前記位置及び前記向きの時間変化量である第1時間変化量よりも少ない時間変化量である第2時間変化量に応じて制御することを含む
    画像処理方法。
  25. コンピュータに、
    撮像位置及び撮像方向のうちの少なくとも一方が異なる複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づいて、前記撮像領域に含まれる対象物の位置及び向きを基準にして仮想視点画像を生成して出力すること、並びに、
    前記仮想視点画像の表示態様を実際の前記位置及び前記向きの時間変化量である第1時間変化量よりも少ない時間変化量である第2時間変化量に応じて制御することを含む処理を実行させるためのプログラム。
JP2022517661A 2020-04-27 2021-04-20 画像処理装置、画像処理方法、及びプログラム Active JP7467612B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020078677 2020-04-27
JP2020078677 2020-04-27
PCT/JP2021/016069 WO2021220891A1 (ja) 2020-04-27 2021-04-20 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021220891A1 JPWO2021220891A1 (ja) 2021-11-04
JPWO2021220891A5 JPWO2021220891A5 (ja) 2023-01-06
JP7467612B2 true JP7467612B2 (ja) 2024-04-15

Family

ID=78373563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517661A Active JP7467612B2 (ja) 2020-04-27 2021-04-20 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230064707A1 (ja)
JP (1) JP7467612B2 (ja)
WO (1) WO2021220891A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067473A (ja) 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法及びその装置
JP2013106324A (ja) 2011-11-16 2013-05-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067473A (ja) 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法及びその装置
JP2013106324A (ja) 2011-11-16 2013-05-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Also Published As

Publication number Publication date
US20230064707A1 (en) 2023-03-02
WO2021220891A1 (ja) 2021-11-04
JPWO2021220891A1 (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
CN109840947B (zh) 增强现实场景的实现方法、装置、设备及存储介质
US9491357B2 (en) Image-processing system and image-processing method in which a size of a viewing angle and a position of a viewing point are changed for zooming
WO2019111817A1 (ja) 生成装置、生成方法及びプログラム
JP7248437B2 (ja) プログラム、電子機器およびデータ記録方法
JP2019114147A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6816465B2 (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2024050737A (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
WO2021020150A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP7467612B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230071355A1 (en) Image processing apparatus, image processing method, and program
JP2020042407A (ja) 情報処理装置、情報処理方法及びプログラム
KR102140077B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
JP2019103126A (ja) カメラシステム、カメラ制御装置、カメラ制御方法及びプログラム
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
EP2672694B1 (en) Improved control of an image capturing device
JP2023163182A (ja) 情報処理装置、情報処理方法、及びプログラム
CN111666451B (zh) 路书展示方法、装置、服务器、终端及存储介质
JP2019012533A (ja) 情報処理装置、情報処理方法及びプログラム
CN112887663A (zh) 图像显示方法、图像通信系统、摄影装置、以及存储介质
JP6508288B2 (ja) システム、画像共有システム、通信方法、及びプログラム
JP5942637B2 (ja) 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム
US20230388471A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150