CN117121475A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN117121475A
CN117121475A CN202280026440.7A CN202280026440A CN117121475A CN 117121475 A CN117121475 A CN 117121475A CN 202280026440 A CN202280026440 A CN 202280026440A CN 117121475 A CN117121475 A CN 117121475A
Authority
CN
China
Prior art keywords
eye
attracting
region
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280026440.7A
Other languages
English (en)
Inventor
横山一树
大屋瑠璃
青山幸治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN117121475A publication Critical patent/CN117121475A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

该信息处理装置(10)包括显示生成单元(53)、视觉吸引区域检测单元(51)、地图生成单元(52)、图像校正单元(54)和显示控制单元(55)。显示生成单元(53)生成多个视点图像,以显示为三维图像。视觉吸引区域检测单元(51)检测虚拟空间中的应当吸引用户的视觉注意力的视觉吸引区域。地图生成单元(52)针对每个视点图像,基于距视觉吸引区域的距离生成控制地图,该控制地图指示视点图像中的视觉吸引程度的分布。图像校正单元(54)基于控制地图来调整视点图像的视觉吸引程度。显示控制单元(55)使用视觉吸引程度已被调整的多个视点图像,使得在虚拟空间中显示三维图像。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开内容涉及信息处理装置、信息处理方法以及程序。
背景技术
存在已知的裸眼立体显示器,其使用双眼视差执行立体显示。用于左眼和右眼的视点图像被供应至观察者的左眼和右眼。因此,实现了如同虚拟对象存在于观察者的眼睛前方的显示。
引文列表
专利文献
专利文献1:WO 2018/116580 A
发明内容
技术问题
左视网膜和右视网膜中反映的图像在观察者的脑中融合并被识别为一个立体图像。脑的这种功能被称为融合。当左图像与右图像之间的对应关系清晰时,可能发生融合。然而,在表达的深度大或者连续设置相同的虚拟对象的情况下,需要被识别为一个立体图像的图像范围变得不清楚,并且融合变得困难。常规的裸眼立体显示器完全没有考虑到融合的容易度,并且因此,根据显示内容,有时融合可能变得困难,并且可见性可能降低。
因此,本公开内容提出了可以实现容易融合的立体显示的信息处理装置、信息处理方法和程序。
问题的解决方案
根据本公开内容,提供一种信息处理装置,该信息处理装置包括:显示生成单元,其生成要被显示为立体图像的多个视点图像;吸引眼睛区域检测单元,其检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;地图生成单元,其基于距吸引眼睛区域的距离,按每个视点图像生成控制地图,该控制地图指示该视点图像中的吸引眼睛程度的分布;图像校正单元,其基于控制地图来调整视点图像的吸引眼睛程度;以及显示控制单元,其使用吸引眼睛程度已被调整的多个视点图像在虚拟空间中显示立体图像。根据本公开内容,提供了一种由计算机执行信息处理装置的信息处理的信息处理方法,以及一种用于使计算机执行信息处理装置的信息处理的程序。
附图说明
图1是示出显示系统的示例的视图。
图2是示出显示系统的功能配置的视图。
图3是示出在虚拟空间中呈现的立体图像的示例的视图。
图4是示出在虚拟空间中呈现的立体图像的示例的视图。
图5是示出从特定视点示出立体图像的视点图像的视图。
图6是用于描述信号处理的流程的视图。
图7是示出视点图像的距离地图的视图。
图8是示出吸引眼睛程度的空间分布的示例的视图。
图9是示出吸引眼睛程度的空间分布的示例的视图。
图10是示出吸引眼睛程度的空间分布的示例的视图。
图11是示出控制地图的示例的视图。
图12是示出吸引眼睛程度的空间分布的变化的视图。
图13是示出吸引眼睛程度的空间分布的变化的视图。
图14是示出吸引眼睛程度的空间分布的变化的视图。
图15是示出校正信号处理的具体示例的视图。
图16是示出校正信号处理的具体示例的视图。
图17是示出校正信号处理的具体示例的视图。
图18是示出校正信号处理的修改例的视图。
图19是示出显示系统的硬件配置示例的视图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的实施方式。注意,在以下实施方式中,相同的部件将被赋予相同的附图标记,并且将省略冗余的描述。
注意,将按以下顺序给出描述。
[1.显示系统的配置]
[2.立体图像的具体示例]
[3.信息处理方法]
[3-1.距离地图的生成]
[3-2.吸引眼睛程度的空间分布的设置]
[3-3.控制地图的生成和校正处理]
[3-4.吸引眼睛程度的空间分布的变化]
[3-5.校正信号处理的具体示例]
[4.修改例]
[5.硬件配置示例]
[6.效果]
[1.显示系统的配置]
图1是示出显示系统1的示例的视图。
显示系统1包括显示器21,该显示器21包括相对于水平平面BT以一定角度θ倾斜的屏幕SCR。该角度θ例如是45度。在下文中,与屏幕SCR的下侧平行的方向是x方向。水平平面BT中的与下侧垂直的方向是z方向。与x方向和z方向垂直的方向(垂直方向)是y方向。
在图1的示例中,屏幕SCR在x方向上的大小是W,在z方向上的大小是D,并且在y方向上的大小是H。其在x方向、y方向和z方向上的大小是W、2×D和H的长方体的空间是虚拟空间VS。显示在屏幕SCR上的多个视点图像VI(参见图5)在虚拟空间VS中被呈现为立体图像。在下文中,从用户(观察者)看到的屏幕SCR的前侧上的虚拟空间VS的垂直平面被称为前表面FT,并且屏幕SCR的后侧上的虚拟空间VS的垂直平面被称为后表面RE。
在使用双眼视差的显示系统1中,反映在用户的左眼和右眼中的视点图像VI被融合并识别为一个立体图像。然而,在虚拟对象VOB(参见图3)极大地从屏幕SCR中伸出或被设置在深的深度位置处的情况下,或者在相同的虚拟对象VOB被连续地设置的情况下,存在需要被识别为一个立体图像的图像范围不清楚的情况。在这种情况下,有时融合可能变得困难,并且可见性可能降低。
为了观看真实对象,可以通过调整眼睛的焦点来搜索真实对象的深度方向上的位置。因此,可以使用深度方向上的位置作为线索来识别左图像与右图像之间的对应关系。然而,在裸眼立体显示器上实际观察到的是显示在屏幕SCR上的立体光学错觉图像(视点图像VI)。光学错觉的焦点位置被固定在用作光源的屏幕SCR上。因此,不能通过调整眼睛的焦点来搜索虚拟对象VOB的深度。这使得融合更加困难。
为了解决这样的问题,本公开内容提出一种方法,用于将虚拟空间VS中的特定区域设置为吸引眼睛区域RA(参见图8)并且执行校正信号处理,使得吸引眼睛区域RA变得比其他区域更明显。通过将用户的视线ES(参见图8)引导到吸引眼睛区域RA,容易地指定需要被识别为一个立体图像的图像范围。因此,促进了融合。下面将描述细节。
图2是示出显示系统1的功能配置的视图。
显示系统1包括处理单元10、信息呈现单元20、信息输入单元30和传感器单元40。处理单元10是对各种信息进行处理的信息处理装置。处理单元10基于从传感器单元40获取的传感器信息和从信息输入单元30获取的用户输入信息来控制信息呈现单元20。
传感器单元40包括用于感测外部世界的多个传感器。多个传感器包括例如可见光摄像装置41、距离测量传感器42、视线检测传感器43等。可见光摄像装置41捕获外部世界的可见光图像。距离测量传感器42使用激光的飞行时间等来检测外部世界中存在的真实对象的距离。视线检测传感器43使用已知的眼睛跟踪技术来检测指向显示器21的用户的视线ES。
信息呈现单元20向用户呈现各种信息,例如,视频信息、音频信息和触觉信息。信息呈现单元20包括例如显示器21、扬声器22和触觉设备23。使用已知的显示器例如液晶显示器(LCD)或有机发光二极管(OLED)作为显示器21。使用可以输出声音等的已知扬声器作为扬声器22。使用可以通过超声波等呈现与显示信息相关联的触觉信息的已知触觉设备作为触觉设备23。
信息输入单元30包括多个输入设备,多个输入设备可以通过用户的输入操作输入各种信息。多个输入设备包括例如触摸面板31、键盘32、鼠标33和麦克风34。
处理单元10包括例如数据处理单元11、I/F单元12、视线识别单元13、距离识别单元14、用户识别单元15、吸引眼睛信息识别单元16、虚拟空间识别单元17、定时器18和存储单元19。处理单元10经由I/F单元12获取由传感器单元40检测到的传感器信息和从信息输入单元30输入的用户输入信息。
视线识别单元13基于由视线检测传感器43检测到的信息,生成将视线ES指向显示器21的用户的视线信息。视线信息包括与用户的眼睛的位置(视点VP:参见图8)和视线ES的方向有关的信息。已知的眼睛跟踪技术用于视线识别处理。
距离识别单元14基于由距离测量传感器42检测到的信息,生成在外部世界中存在的真实对象的距离信息。该距离信息包括例如真实对象与显示器21之间的距离的信息。
用户识别单元15从由可见光摄像装置41捕获的可见光图像中提取将视线ES指向显示器21的用户的图像。用户识别单元15基于提取的用户的图像来生成用户的运动信息。该运动信息包括例如与用户在看着显示器21同时正在执行的姿势或工作的状况有关的信息。
吸引眼睛信息识别单元16基于用户输入信息、传感器信息和内容数据CT来生成虚拟空间VS的吸引眼睛信息。吸引眼睛信息包括与需要吸引用户的视觉注意力的对象或地方(吸引眼睛区域RA)有关的信息。吸引眼睛信息用于指定用作关键字的吸引眼睛区域RA的位置信息。
例如,在主要对象被设置在前侧(靠近用户的一侧)的一般显示模式中,生成用于指定在前侧的对象的信息,作为吸引眼睛信息。在内容数据CT包括由内容创作者指定的吸引眼睛位置(对象或地方)的信息的情况下,生成从内容数据CT提取的吸引眼睛位置的信息,作为吸引眼睛信息。在用户连续地注视特定位置处的情况下,生成与用户的注视位置有关的信息,作为吸引眼睛信息。在例如根据传感器信息检测到用户将手指、笔等插入虚拟空间VS中并执行诸如对虚拟对象VOB进行绘制或成形的一些工作的状况的情况下,生成工作部分(注视位置)的位置信息,作为吸引眼睛信息。
虚拟空间识别单元17生成关于虚拟空间VS的虚拟空间信息。该虚拟空间信息包括例如与屏幕SCR的角度θ以及虚拟空间VS的位置和大小有关的信息。
数据处理单元11基于由定时器18生成的定时信号使信息呈现单元20和传感器单元40同步并驱动信息呈现单元20和传感器单元40。数据处理单元11控制信息呈现单元20在虚拟空间VS中显示其吸引眼睛程度(显著度)根据距吸引眼睛区域的距离已被调整的立体图像。数据处理单元11包括例如吸引眼睛区域检测单元51、地图生成单元52、显示生成单元53、图像校正单元54和显示控制单元55。
显示生成单元53生成要显示为立体图像的多个视点图像VI。视点图像VI是指从一个视点VP看到的二维图像。多个视点图像VI包括从用户的左眼看到的左眼图像以及从用户的右眼看到的右眼图像。
例如,显示生成单元53基于从虚拟空间识别单元17获取的虚拟空间信息来检测虚拟空间VS的位置和大小。显示生成单元53基于从视线识别单元13获取的视线信息来检测用户的左眼和右眼的位置(视点VP)。显示生成单元53从内容数据CT中提取3D数据,并且通过基于用户的视点渲染所提取的3D数据来生成视点图像VI。
吸引眼睛区域检测单元51基于从吸引眼睛信息识别单元16获取的吸引眼睛信息,检测虚拟空间VS的需要吸引用户的视觉注意力的吸引眼睛区域RA。吸引眼睛区域RA是例如呈现在虚拟空间VS中的特定虚拟对象VOB或虚拟空间VS中的包括特定虚拟对象VOB的局部区域。吸引眼睛区域RA是基于例如用户输入信息、用户的注视位置或从内容数据CT中提取的吸引眼睛位置来检测的。用户的注视位置是基于例如从用户识别单元15获取的用户的运动信息来检测的。
地图生成单元52基于距吸引眼睛区域RA的距离,按每个视点图像VI生成控制地图CM(参见图11)。控制地图CM指示视点图像VI中的吸引眼睛程度的分布。吸引眼睛程度的空间分布被设置到虚拟空间VS,使得吸引眼睛程度在吸引眼睛区域RA中最大。
例如,针对控制地图CM限定这样的吸引眼睛程度的分布,以使得吸引眼睛程度随着距吸引眼睛区域RA的距离越远而变得越低。吸引眼睛程度是使用距吸引眼睛区域RA的距离作为参考来计算的。用作参考的距离可以是深度方向上的距离,或者可以是与深度方向垂直的方向上的距离。深度方向可以是用户的视线方向,或者可以是z方向。基于从距离识别单元14获取的距离信息,计算距吸引眼睛区域RA的距离。
图像校正单元54基于控制地图CM来调整视点图像VI的吸引眼睛程度。例如,图像校正单元54通过按每个像素调整视点图像VI的频率特性、亮度、饱和度、对比度、透明度或色调来调整视点图像VI的吸引眼睛程度。
例如,图像校正单元54使诸如吸引眼睛区域RA中的频率特性、亮度、饱和度、对比度和透明度的特性最大化。因此,吸引眼睛区域RA变得突出,并且吸引眼睛程度增加。在虚拟空间VS中呈现具有相同色调的多个虚拟对象VOB的情况下,图像校正单元54可以使在吸引眼睛区域RA中呈现的虚拟对象VOB的色调与其他区域中的虚拟对象VOB的色调不同。具有经调整的色调的虚拟对象VOB被识别为其他虚拟对象VOB的异质虚拟对象VOB。因此,吸引眼睛区域RA中的虚拟对象VOB的吸引眼睛程度增加。
通过上述图像处理,按每个区域对吸引眼睛程度进行调整。因此,即使当连续地设置同质边缘或纹理时,也容易地感知不同的边缘或纹理。因此,促进了融合,并且实现了具有高可见性的显示。可见性被提高,使得可以表达大的深度,并且要被感知的立体效果也被改进。此外,尽管融合的困难引起视觉疲劳,但该视觉疲劳被消除,使得也可以预期视觉疲劳的减少。
显示控制单元55使用其吸引眼睛程度已被调整的多个视点图像VI在虚拟空间VS中显示立体图像。
将关于用于各种算术运算的设置、条件和标准的信息包括在设置信息STI中。将用于上述处理的内容数据CT、设置信息STI和程序PG存储在存储单元19中。程序PG是使计算机执行根据本实施方式的信息处理的程序。处理单元10根据存储在存储单元19中的程序PG来执行各种处理。存储单元19可以用作用于暂时存储处理单元10的处理结果的工作区。存储单元19包括例如任意非暂态存储介质,例如半导体存储介质和磁性存储介质。例如,存储单元19包括光盘、磁光盘或闪速存储器。例如,程序PG被存储在非暂态计算机可读存储介质中。
处理单元10例如是包括处理器和存储器的计算机。处理单元10的存储器包括随机存取存储器(RAM)和只读存储器(ROM)。通过执行程序PG,处理单元10充当数据处理单元11、I/F单元12、视线识别单元13、距离识别单元14、用户识别单元15、吸引眼睛信息识别单元16、虚拟空间识别单元17、定时器18、吸引眼睛区域检测单元51、地图生成单元52、显示生成单元53、图像校正单元54和显示控制单元55。
[2.立体图像的具体示例]
图3和图4是示出在虚拟空间VS中呈现的立体图像的示例的视图。图5是示出视点图像VI的视图,其示出了从特定视点VP看到的立体图像。
内容数据CT包括关于立体图像的3D模型的信息。通过基于视点VP的信息渲染3D模型,生成从随机视点VP看到的视点图像VI。在图3至图5的示例中,在x方向、y方向和z方向上周期性地排列多个立方体形状的虚拟对象VOB。多个虚拟对象VOB在z方向上从屏幕SCR的前侧到后侧广泛分布。视点图像VI包括例如多个虚拟对象VOB和其阴影图像SH。
用户从虚拟空间VS的前表面FT侧观察立体图像。取决于观察位置,观察在所有方向上具有相同的边缘或纹理的虚拟对象VOB。因此,虚拟对象VOB中的每一个都难以区分,并且显示变得非常难以融合。为了解决该问题,在本公开内容中,使特定空间区域突出,以将用户的视线ES引导到该空间区域,从而促进融合。在下文中,将描述信息处理的示例。
[3.信息处理方法]
[3-1.距离地图的生成]
图6是用于描述信号处理的流程的视图。图7是示出视点图像VI的距离地图DM的视图。
地图生成单元52基于立体图像的三维坐标信息来生成每个视点图像VI的距离地图DM。距离地图DM指示从视点VP到虚拟对象VOB的表面的每个距离的分布。距离地图DM按每个像素限定从视点VP起的距离。对于距离地图DM的每个像素,例如,将假设到从用户看到的虚拟空间VS中的最近位置(例如,前表面FT)的距离是0并且到虚拟空间VS中的最远位置(例如,后表面RE)的距离是1而归一化的距离值限定为像素值。
[3-2.吸引眼睛程度的空间分布的设置]
图8至图10是示出吸引眼睛程度的空间分布AD的示例的视图。
吸引眼睛区域检测单元51基于吸引眼睛信息生成吸引眼睛区域RA的位置信息。吸引眼睛区域检测单元51将吸引眼睛区域RA的位置信息作为控制键提供至地图生成单元52。地图生成单元52使用吸引眼睛区域RA的位置作为参考,确定虚拟空间VS的吸引眼睛程度的空间分布AD。在图8的示例中,将虚拟空间VS上的最接近用户的视点VP的位置确定为吸引眼睛区域RA。吸引眼睛区域RA被限定为垂直于视线ES的平面区域。随着距视点VP的距离越长,吸引眼睛程度越小。
在图9的示例中,将虚拟空间VS的前表面FT确定为吸引眼睛区域RA。吸引眼睛程度的空间分布AD被设置成使得,随着距前表面FT的距离越长,吸引眼睛程度越小。后表面RE的吸引眼睛程度是最小的。在图10的示例中,将虚拟空间VS中的其距经归一化的视点VP的距离为DSA的区域确定为吸引眼睛区域RA。地图生成单元52将与吸引眼睛程度对应的图像的校正值确定为控制值CV。地图生成单元52基于吸引眼睛程度的空间分布AD来确定限定了距离DS与控制值CV之间的关系的控制曲线CCV。
[3-3.控制地图的生成和校正处理]
图11是示出控制地图CM的示例的视图。
地图生成单元52基于距离地图DM和空间分布AD来生成控制地图CM。例如,地图生成单元52通过向距离地图DM应用控制曲线CCV,按每个视点图像VI生成控制地图CM。控制地图CM指示对应视点图像VI的控制值CV的分布。控制地图CM限定了视点图像VI的每个像素的控制值CV。图像校正单元54基于控制地图CM来生成用于校正信号处理的控制信号。图像校正单元54使用该控制信号对视点图像VI进行校正。
[3-4.吸引眼睛程度的空间分布的变化]
图12至图14是示出吸引眼睛程度的空间分布AD的变化的图。
在图12的示例中,将吸引眼睛区域RA设置在从用户的视线ES的方向(视线方向ESD)看到的虚拟空间VS的中心部分(用附图标记“a”指示)处。在虚拟空间VS的中心部分处的与视线方向ESD垂直的平面区域是吸引眼睛区域RA。吸引眼睛程度在吸引眼睛区域RA中最大,并且吸引眼睛程度根据在吸引眼睛区域RA的前侧(靠近用户的一侧)和后侧(远离用户的一侧)上距吸引眼睛区域RA的距离而逐渐降低。
在图13中从左边起的第一示例中,吸引眼睛区域RA被设置在从视线方向ESD看到的虚拟空间VS的前表面FT侧的端部处。通过前表面FT的上侧并与视线方向ESD垂直的平面区域是吸引眼睛区域RA。吸引眼睛程度在吸引眼睛区域RA中最大,并且根据距吸引眼睛区域RA的距离,吸引眼睛程度从吸引眼睛区域RA到虚拟空间VS的中心部分逐渐降低。在虚拟空间VS的中心部分的后侧上,吸引眼睛程度不改变。
在图13中从左边起的第二示例中,吸引眼睛区域RA被设置在从视线方向ESD看到的虚拟空间VS的中心部分的前侧上。与视线方向ESD垂直的平面区域是吸引眼睛区域RA。在吸引眼睛区域RA的前侧和后侧上,根据距吸引眼睛区域RA的距离,吸引眼睛程度逐渐降低。
在图13中从左边起的第三示例中,吸引眼睛区域RA被设置在从视线方向ESD看到的虚拟空间VS的中心部分处。吸引眼睛程度的空间分布AD与图12的示例中的吸引眼睛程度的空间分布AD相似。
在图13中从左边起的第四示例中,吸引眼睛区域RA被设置在从视线方向ESD看到的虚拟空间VS的中心部分的后侧上。与视线方向ESD垂直的平面区域是吸引眼睛区域RA。在吸引眼睛区域RA的前侧和后侧上,根据距吸引眼睛区域RA的距离,吸引眼睛程度逐渐降低。
在图13中从左边起的第五示例中,吸引眼睛区域RA被设置在从视线方向ESD看到的虚拟空间VS的后表面RE侧的端部处。通过后表面RE的下侧并与视线方向ESD垂直的平面区域是吸引眼睛区域RA。吸引眼睛程度在吸引眼睛区域RA中最大,并且根据距吸引眼睛区域RA的距离,吸引眼睛程度从吸引眼睛区域RA到虚拟空间VS的中心部分逐渐降低。在虚拟空间VS的中心部分的前侧上,吸引眼睛程度不改变。
在图14的示例中,吸引眼睛区域RA被设置在从z方向看到的虚拟空间VS的中心部分处。在虚拟空间VS的中心部分处的与z方向垂直的平面区域是吸引眼睛区域RA。吸引眼睛程度在吸引眼睛区域RA中最大,并且根据距吸引眼睛区域RA的距离,在吸引眼睛区域RA的前侧和后侧上吸引眼睛程度逐渐降低。
[3-5.校正信号处理的具体示例]
图15至图17是示出校正信号处理的具体示例的图。每个图的左侧示出了校正之前的视点图像VI,并且右侧示出了校正之后的视点图像VI(经校正的图像VIC)。
校正信号处理是按每个像素调整视点图像VI的吸引眼睛程度的处理。校正信号处理的目的是使需要吸引眼睛的区域更显著并且使其他区域不显著,或者在存在相同类型的多个虚拟对象VOB的情况下能够使相同类型的虚拟对象VOB中的每一个容易地被区分和识别。根据校正信号处理,例如,单独地或组合地执行下述多个处理。
在图15的示例中,根据控制地图CM执行增加高控制值CV的区域中的频率特性和减少其他部分中的频率特性的处理。该处理增加了作为吸引眼睛区域RA的主要区域和虚拟对象VOB的清晰度,并且与其他区域相比增强了边缘和纹理的可见性。因此,可能获得易于融合的显示。在图15的示例中,在从视线方向ESD看到的最前侧上设置高吸引眼睛程度。在经校正的图像VIC中,最前侧上的清晰度较高,并且朝向后侧清晰度较低。通过将眼睛吸引到前侧并同时使前侧与后侧不同,促进了融合。
在图16的示例中,根据控制地图CM执行使高控制值CV的区域变亮以及使其他部分变暗的处理。该处理使作为吸引眼睛区域RA的主要区域和虚拟对象VOB的亮度比其他区域更高以及更显著。因此,可以提高作为吸引眼睛区域RA的主要区域和虚拟对象VOB的可见性,并且获得易于融合的显示。在图16的示例中,在从视线方向ESD看到的最前侧上设置高吸引眼睛程度。经校正的图像VIC在最前侧上较亮,并且朝向后侧较暗。通过将眼睛吸引到前侧并同时使前侧与后侧不同,促进了融合。
在图17的示例中,根据控制地图CM执行增加高控制值CV的区域中的饱和度以及减少其他部分中的饱和度的处理。该处理使作为吸引眼睛区域RA的主要区域和虚拟对象VOB的饱和度比其他部分更鲜明。因此,可以提高作为吸引眼睛区域RA的主要区域和虚拟对象VOB的可见性,并且获得易于融合的显示。在图17的示例中,在从视线方向ESD看到的最前侧上设置高吸引眼睛程度。经校正的图像VIC在最前侧上具有鲜明的颜色,并且朝向后侧具有较暗的颜色。通过将眼睛吸引到前侧并同时使前侧与后侧不同,促进了融合。
注意,校正信号处理不限于上述处理。例如,根据控制地图CM,可以执行增加高控制值CV的区域的局部对比度以及减少其他部分的对比度的处理。局部对比度是指存在于局部空间中的虚拟对象VOB的对比度。该处理将作为吸引眼睛区域RA的主要区域和虚拟对象VOB的纹理等比其他部分更鲜明地显示。因此,可以提高作为吸引眼睛区域RA的主要区域和虚拟对象VOB的可见性,并且获得易于融合的显示。
根据控制地图CM,可以执行降低高控制值CV的区域的透明度并增加其他部分的透明度的处理。该处理使作为吸引眼睛区域RA的主要区域和虚拟对象VOB更显著。因此,可以提高作为吸引眼睛区域RA的主要区域和虚拟对象VOB的可见性,并且获得易于融合的显示。
在虚拟空间VS中呈现多个同质虚拟对象VOB的情况下,可以通过根据控制地图CM改变高控制值CV的区域、该区域的色调等来执行按每区域将虚拟对象VOB异质化的处理。该处理方法使得容易将各个虚拟对象VOB区分开。因此,可以提高作为吸引眼睛区域RA的主要虚拟对象VOB的可见性,并且获得易于融合的显示。
[4.修改例]
图18是示出校正信号处理的修改例的视图。
上述校正信号处理被执行为要应用于视点图像VI的后处理。然而,也可以通过控制诸如根据位置要绘制的每个虚拟对象VOB的材料的每个虚拟对象VOB的设置,来实现类似的显示。例如,图像校正单元54从内容数据CT中提取多个虚拟对象VOB。图像校正单元54按每个虚拟对象VOB,基于和虚拟对象VOB与吸引眼睛区域RA之间的距离对应的α值来调整虚拟对象VOB的吸引眼睛程度。
在图18的示例中,从z方向看到的前侧被限定为作为吸引眼睛区域RA的主要区域。对于在后侧上的虚拟对象VOB,材料的α值降低,并且示出了具有高透明度的显示。该处理使作为吸引眼睛区域RA的前侧上的虚拟对象VOB更显著。因此,可以提高作为吸引眼睛区域RA的前侧上的主要虚拟对象VOB的可见性,并且获得易于融合的显示。
[5.硬件配置示例]
图19是示出显示系统1的硬件配置示例的视图。
显示系统1包括中央处理单元(CPU)901、只读存储器(ROM)902、随机存取存储器(RAM)903和主机总线904a。此外,显示系统1包括桥接器904、外部总线904b、接口905、输入装置906、输出装置907、存储装置908、驱动器909、连接端口911、通信装置913和传感器915。代替CPU 901或除了CPU 901之外,显示系统1可以包括诸如DSP或ASIC的处理电路。
CPU 901充当算术处理装置和控制装置,并且根据各种程序控制显示系统1中的所有操作。此外,CPU 901可以是微处理器。ROM 902存储由CPU 901使用的程序、操作参数等。RAM 903临时存储用于由CPU901执行的程序、在执行时适当改变的参数等。CPU 901可以实现例如数据处理单元11、视线识别单元13、距离识别单元14、用户识别单元15、吸引眼睛信息识别单元16以及虚拟空间识别单元17。
CPU 901、ROM 902和RAM 903通过包括CPU总线等的主机总线904a相互连接。主机总线904a经由桥接器904连接至诸如外围部件互连/接口(PCI)总线的外部总线904b。注意,主机总线904a、桥接器904和外部总线904b不一定需要是单独配置的,并且可以在一个总线上实现这些功能。
输入装置906例如被实现为用户向其输入信息的装置,例如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆。此外,输入装置906可以是例如使用红外光或其他无线电波的遥控装置,或者可以是支持显示系统1的操作的外部连接设备,例如移动电话或PDA。此外,输入装置906可以包括例如基于由用户使用上以上的输入装置输入的信息来生成输入信号并且将输入信号输出至CPU 901的输入控制电路。显示系统1的用户可以通过操作该输入装置906来输入各种数据项并向显示系统1指示处理操作。输入装置906可以被配置为例如信息输入单元30。
输出装置907被配置为能够在视觉上或听觉上通知用户所获取的信息的装置。这样的装置的示例包括显示装置,例如CRT显示装置、液晶显示装置、等离子显示装置、EL显示装置和灯;音频输出装置,例如扬声器和耳机;以及打印机装置。输出装置907输出例如由显示系统1执行的各种处理所获得的结果。更具体地,显示装置以诸如文本、图像、表格和图表的各种格式,在视觉上显示由显示系统1执行的各种处理所获得的结果。另一方面,音频输出装置将包括回放的音频数据、声学数据等的音频信号转换成模拟信号并且在听觉上输出该模拟信号。输出装置907可以被配置为例如信息呈现单元20。
存储装置908是数据存储装置,其被配置为显示系统1的存储单元的示例。存储装置908被实现为例如诸如HDD的磁存储单元设备、半导体存储设备、光存储设备、磁光存储设备等。存储装置908可以包括存储介质、在存储介质中记录数据的记录装置、从存储介质读取数据的读取装置、删除记录在存储介质中的数据的删除装置等。该存储装置908存储由CPU 901执行的程序、各种数据、从外部获取的各种数据等。以上存储装置908可以被配置为例如存储单元19。
驱动器909是用于存储介质的读取器/写入器,并且被构建在显示系统1中或者从外部附接至显示系统1。驱动器909读取记录在诸如安装的磁盘、光盘、磁光盘或半导体存储器的可移除存储介质中的信息,并且将信息输出至RAM 903。此外,驱动器909还可以在可移除存储介质中写入信息。
连接端口911是连接至外部设备的接口,并且是用于与可以经由例如通用串行总线(USB)传输数据的外部设备连接的连接端口。
通信装置913例如是被配置为通信设备等的用于连接至网络920的通信接口。通信装置913例如是用于有线或无线局域网(LAN)、长期演进(LTE)、蓝牙(注册商标)、无线USB(WUSB)等的通信卡。此外,通信装置913可以是用于光通信的路由器、用于非对称数字用户线(ADSL)的路由器、用于各种通信的调制解调器等。例如,该通信装置913可以根据诸如TCP/IP的预定协议,经由因特网发送和接收信号等,或向其他通信设备发送信号以及从其他通信设备接收信号等。
例如,传感器915是诸如加速度传感器、陀螺仪传感器、地磁传感器、光学传感器、声音传感器、距离测量传感器和力传感器的各种传感器。传感器915获取关于显示系统1本身的诸如显示系统1的姿态和移动速度的状态的信息,以及关于显示系统1的诸如显示系统1周围的亮度和噪音的周围环境的信息。此外,传感器915可以包括GPS传感器,其接收GPS信号并测量装置的纬度、经度和高度。传感器915可以被配置为例如传感器单元40。
注意,网络920是从连接至网络920的装置发送的信息的有线或无线传输路径。例如,网络920可以包括:诸如因特网、电话网络或卫星通信网络的公共网络、包括以太网(注册商标)的各种局域网(LAN)、广域网(WAN)等。此外,网络920可以包括专用线路网络,例如因特网协议-虚拟专用网络(IP-VPN)。
[6.效果]
处理单元10包括显示生成单元53、吸引眼睛区域检测单元51、地图生成单元52、图像校正单元54以及显示控制单元55。显示生成单元53生成要显示为立体图像的多个视点图像VI。吸引眼睛区域检测单元51检测虚拟空间VS的需要吸引用户的视觉注意力的吸引眼睛区域RA。地图生成单元52基于距吸引眼睛区域RA的距离,按每个视点图像VI生成控制地图CM,该控制地图CM指示视点图像VI中的吸引眼睛程度的分布。图像校正单元54基于控制地图CM来调整视点图像VI的吸引眼睛程度。显示控制单元55使用其吸引眼睛程度已被调整的多个视点图像VI在虚拟空间VS中显示立体图像。根据本实施方式的信息处理方法,上述处理单元10的处理是由计算机执行的。根据本实施方式的程序使计算机实现上述处理单元10的处理。
根据该配置,可以将观察者的注视吸引到需要被识别为一个立体图像的图像区域。因此,融合容易地发生。
控制地图CM将这样的吸引眼睛程度的分布限定成使得该吸引眼睛程度随着与吸引眼睛区域RA间隔的距离越远而变得越低。
根据该配置,吸引眼睛区域RA与其他区域相比变得显著。因此,促进了融合。
地图生成单元52基于立体图像的三维坐标信息来生成每个视点图像VI的距离地图DM。地图生成单元52使用吸引眼睛区域RA的位置作为参考,确定虚拟空间VS的吸引眼睛程度的空间分布AD。地图生成单元52基于距离地图DM和吸引眼睛程度的空间分布AD来生成控制地图CM。
根据该配置,容易地基于立体图像的三维坐标信息生成控制地图CM。
图像校正单元54通过按每个像素调整视点图像VI的频率特性、亮度、饱和度、对比度、透明度或色调来调整视点图像VI的吸引眼睛程度。
根据该配置,容易地将观察者的注视吸引到吸引眼睛区域RA。
图像校正单元54从内容数据CT中提取多个虚拟对象VOB。图像校正单元54按每个虚拟对象VOB,基于和虚拟对象VOB与吸引眼睛区域RA之间的距离对应的α值来调整虚拟对象VOB的吸引眼睛程度。
根据该配置,容易地将观察者的注视吸引到吸引眼睛区域RA。
吸引眼睛区域检测单元51基于用户输入信息、用户的注视位置或从内容数据CT中提取的吸引眼睛位置来检测吸引眼睛区域RA。
根据该配置,适当地设置吸引眼睛区域RA。
注意,在本说明书中描述的效果仅是示例而不是限制,并且可以提供其他效果。
[补充说明]
注意,本技术还可以采用以下配置。
(1)
一种信息处理装置,包括:
显示生成单元,其生成要被显示为立体图像的多个视点图像;
吸引眼睛区域检测单元,其检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
地图生成单元,其基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
图像校正单元,其基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
显示控制单元,其使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
(2)
根据(1)所述的信息处理装置,其中
所述控制地图限定所述吸引眼睛程度的分布,以使得所述吸引眼睛程度随着距所述吸引眼睛区域的距离越远而变得越低。
(3)
根据(1)或(2)所述的信息处理装置,其中,
所述地图生成单元基于所述立体图像的三维坐标信息生成每个视点图像的距离地图,使用所述吸引眼睛区域的位置作为参考来确定所述虚拟空间的吸引眼睛程度的空间分布,并且基于所述距离地图和所述吸引眼睛程度的空间分布来生成所述控制地图。
(4)
根据(1)至(3)中任一项所述的信息处理装置,其中,
所述图像校正单元通过按每个像素调整所述视点图像的频率特性、亮度、饱和度、对比度、透明度或色调来调整所述视点图像的吸引眼睛程度。
(5)
根据(1)至(3)中任一项所述的信息处理装置,其中,
所述图像校正单元从内容数据中提取多个虚拟对象,并且按每个虚拟对象,基于同所述虚拟对象与所述吸引眼睛区域之间的距离对应的α值来调整所述虚拟对象的吸引眼睛程度。
(6)
根据(1)至(5)中任一项所述的信息处理装置,其中,
所述吸引眼睛区域检测单元基于用户输入信息、所述用户的注视位置或从内容数据中提取的吸引眼睛位置来检测所述吸引眼睛区域。
(7)
一种由计算机执行的信息处理方法,包括:
生成要被显示为立体图像的多个视点图像;
检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
(8)
一种使计算机执行以下操作的程序:
生成要被显示为立体图像的多个视点图像;
检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
附图标记列表
10处理单元(信息处理装置)
51吸引眼睛区域检测单元
52地图生成单元
53显示生成单元
54图像校正单元
55显示控制单元
AD吸引眼睛程度的空间分布
CM控制地图
CT内容数据
DM距离地图
PG程序
RA吸引眼睛区域
VI视点图像
VOB虚拟对象
VS虚拟空间

Claims (8)

1.一种信息处理装置,包括:
显示生成单元,其生成要被显示为立体图像的多个视点图像;
吸引眼睛区域检测单元,其检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
地图生成单元,其基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
图像校正单元,其基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
显示控制单元,其使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
2.根据权利要求1所述的信息处理装置,其中,
所述控制地图限定所述吸引眼睛程度的分布,以使得所述吸引眼睛程度随着距所述吸引眼睛区域的距离越远而变得越低。
3.根据权利要求1所述的信息处理装置,其中,
所述地图生成单元基于所述立体图像的三维坐标信息生成每个视点图像的距离地图,使用所述吸引眼睛区域的位置作为参考来确定所述虚拟空间的吸引眼睛程度的空间分布,并且基于所述距离地图和所述吸引眼睛程度的空间分布来生成所述控制地图。
4.根据权利要求1所述的信息处理装置,其中,
所述图像校正单元通过按每个像素调整所述视点图像的频率特性、亮度、饱和度、对比度、透明度或色调来调整所述视点图像的吸引眼睛程度。
5.根据权利要求1所述的信息处理装置,其中,
所述图像校正单元从内容数据中提取多个虚拟对象,并且按每个虚拟对象,基于同所述虚拟对象与所述吸引眼睛区域之间的距离对应的α值来调整所述虚拟对象的吸引眼睛程度。
6.根据权利要求1所述的信息处理装置,其中,
所述吸引眼睛区域检测单元基于用户输入信息、所述用户的注视位置或从内容数据中提取的吸引眼睛位置来检测所述吸引眼睛区域。
7.一种由计算机执行的信息处理方法,包括:
生成要被显示为立体图像的多个视点图像;
检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
8.一种使计算机执行以下操作的程序:
生成要被显示为立体图像的多个视点图像;
检测虚拟空间中的需要吸引用户的视觉注意力的吸引眼睛区域;
基于距所述吸引眼睛区域的距离,按每个视点图像生成控制地图,所述控制地图指示所述视点图像中的吸引眼睛程度的分布;
基于所述控制地图来调整所述视点图像的所述吸引眼睛程度;以及
使用所述吸引眼睛程度已被调整的所述多个视点图像,在所述虚拟空间中显示所述立体图像。
CN202280026440.7A 2021-04-12 2022-01-28 信息处理装置、信息处理方法和程序 Pending CN117121475A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021067159 2021-04-12
JP2021-067159 2021-04-12
PCT/JP2022/003278 WO2022219877A1 (ja) 2021-04-12 2022-01-28 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
CN117121475A true CN117121475A (zh) 2023-11-24

Family

ID=83639539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280026440.7A Pending CN117121475A (zh) 2021-04-12 2022-01-28 信息处理装置、信息处理方法和程序

Country Status (3)

Country Link
JP (1) JPWO2022219877A1 (zh)
CN (1) CN117121475A (zh)
WO (1) WO2022219877A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101960844B1 (ko) * 2011-11-01 2019-03-22 삼성전자주식회사 영상 처리 장치 및 방법
JP6017144B2 (ja) * 2012-02-06 2016-10-26 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置および方法、プログラム、並びに記録媒体
JP2015076776A (ja) * 2013-10-10 2015-04-20 凸版印刷株式会社 立体視画像処理装置、立体視画像処理方法及びプログラム
CN104519347B (zh) * 2014-12-10 2017-03-01 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备

Also Published As

Publication number Publication date
JPWO2022219877A1 (zh) 2022-10-20
WO2022219877A1 (ja) 2022-10-20

Similar Documents

Publication Publication Date Title
US11386626B2 (en) Information processing apparatus, information processing method, and program
US10013812B2 (en) Method and system for controlling a head-mounted display system
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10977774B2 (en) Information processing apparatus, information processing method, and program for estimating prediction accuracy
US10365767B2 (en) Augmented reality image processing apparatus and method, and program
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
CN107710284B (zh) 用于在虚拟图像生成系统中更有效地显示文本的技术
US10642348B2 (en) Display device and image display method
US9978342B2 (en) Image processing method controlling image display based on gaze point and recording medium therefor
US20160320863A1 (en) Image processing apparatus and method, and program
US20200202161A1 (en) Information processing apparatus, information processing method, and program
US11064176B2 (en) Information processing apparatus, information processing method, and program for display control to arrange virtual display based on user viewpoint
US10171800B2 (en) Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance
US20200242842A1 (en) Information processing device, information processing method, and program
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
US11589001B2 (en) Information processing apparatus, information processing method, and program
CN117121475A (zh) 信息处理装置、信息处理方法和程序
WO2019150668A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US10834382B2 (en) Information processing apparatus, information processing method, and program
CN108369477A (zh) 信息处理装置、信息处理方法和程序
WO2018173445A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及びプログラム
US20230119162A1 (en) Systems and methods for processing scanned objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination