CN115868155A - 控制设备、投影系统、控制方法和程序 - Google Patents

控制设备、投影系统、控制方法和程序 Download PDF

Info

Publication number
CN115868155A
CN115868155A CN202180042102.8A CN202180042102A CN115868155A CN 115868155 A CN115868155 A CN 115868155A CN 202180042102 A CN202180042102 A CN 202180042102A CN 115868155 A CN115868155 A CN 115868155A
Authority
CN
China
Prior art keywords
unit
projection
control
occupant
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180042102.8A
Other languages
English (en)
Inventor
高松孝至
今村洋
友永诚史
长田浩二
长良彻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115868155A publication Critical patent/CN115868155A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/40Instruments specially adapted for improving the visibility thereof to the user, e.g. fogging prevention or anti-reflection arrangements
    • B60K35/405Fogging prevention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2053Intensity control of illuminating light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/60Projection screens characterised by the nature of the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

在本发明中,控制设备50包括控制单元52,所述控制单元52基于从检测移动体10内的空间状况的传感器输入的空间状况信息,控制由设置在所述移动体10内的空间中的投影仪20投影到预定投影面的视频图像的状态。

Description

控制设备、投影系统、控制方法和程序
技术领域
本公开涉及控制设备、投影系统、控制方法和程序。
背景技术
已知一种无论乘员在汽车内的就座位置如何,都能自动提供适当的再现声场的技术。例如,在下面的专利文献1中,检测设置在汽车内的多个显示器中的每一个的电源的开/关状态,并按照该检测结果校正音频信号,使得多个扬声器的再现声音在使用处于打开状态的显示器的位置变得适当。
一种将视频投影到投影面的投影仪根据在投影面和投影仪之间人的存在,调整投影仪的投影透镜的焦距的技术。例如,在下面的专利文献2中,在投影面和投影仪之间感测到人的存在的情况下,进行调焦,使得在感测到人的存在的同时,将投影透镜的焦距固定在紧接在前的状态。
引文列表
专利文献
专利文献1:JP 2005-88864A
专利文献2:日本专利No.4955309
发明内容
技术问题
近年来,需要一种能够通过向移动体提供诸如投影仪之类的投影设备并在移动体内投影视频来增强娱乐性的技术。
然而,在上述专利文献1和2中,没有考虑为移动体内的乘员提供最合适的视频。
于是,本公开提出一种能够为移动体内的乘员提供最合适的视频的控制设备、投影系统、控制方法和程序。
问题的解决方案
为了解决上述问题,按照本公开的一个方面的控制设备包括:控制单元,所述控制单元基于从检测移动体内的空间状况的传感器输入的空间状况信息,控制由设置在所述移动体内的空间中的投影设备投影到预定投影面的视频的状态。
附图说明
图1是应用于本公开的各个实施例的投影系统的示意侧视图。
图2是应用于本公开的各个实施例的投影系统的示意顶视图。
图3是图解说明按照第一实施例的投影系统的功能配置的框图。
图4是图解说明按照第一实施例的控制单元的详细功能配置的框图。
图5是图解说明按照第一实施例的投影系统执行的处理的概况的流程图。
图6是示意地图解说明在移动体内有4个乘员的情况下的投影仪的聚焦位置的示图。
图7是示意地图解说明在移动体内的前座有2个乘员的情况下的投影仪的聚焦位置的示图。
图8是示意地图解说明在移动体内的前座有1人的情况下的投影仪的聚焦位置的示图。
图9是示意地图解说明在移动体内的后座有2人的情况下的投影仪的聚焦位置的示图。
图10是示意地图解说明在移动体内的前后有2人的情况下的投影仪的聚焦位置的示图。
图11是示意地图解说明在移动体内的后座有1人的情况下的投影仪的聚焦位置的示图。
图12是图解说明按照第二实施例的投影系统的功能配置的框图。
图13是图解说明按照第二实施例的控制单元的详细功能配置的框图。
图14是图解说明按照第二实施例的投影系统执行的处理的概况的流程图。
图15是图解说明按照第三实施例的投影系统的功能配置的框图。
图16是图解说明按照第三实施例的控制单元的详细功能配置的框图。
图17是图解说明按照第三实施例的投影系统执行的处理的概况的流程图。
图18是图解说明按照第四实施例的投影系统的功能配置的框图。
图19是图解说明按照第四实施例的控制单元的功能配置的框图。
图20是图解说明按照第四实施例的投影系统执行的处理的概况的流程图。
图21是示意地图解说明投影仪基于由生成单元生成的控制信号投影的视频的聚焦状态的示图。
图22是图解说明按照第五实施例的投影系统的功能配置的框图。
图23是图解说明按照第五实施例的控制单元的功能配置的框图。
图24是图解说明按照第五实施例的投影系统执行的处理的概况的流程图。
图25是图解说明按照第六实施例的投影系统的功能配置的框图。
图26是图解说明按照第六实施例的控制单元的功能配置的框图。
图27是图解说明按照第六实施例的投影系统执行的处理的概况的流程图。
图28是图解说明车辆控制系统的示意配置例子的框图,所述车辆控制系统是按照本公开的技术可以应用于的移动体控制系统的例子。
图29是图解说明成像单元和车外信息检测单元的安装位置的例子的示图。
具体实施方式
下面将参考附图详细说明本公开的实施例。在本说明书和附图中,功能配置实质相同的组件用相同的附图标记表示,并且重复的说明将被省略。
注意,将按照以下顺序进行说明。
1.投影系统的配置
1-1.投影系统的示意配置
1-2.投影仪的配置
1-3.传感器单元的配置
1-4.内容再现设备的配置
1-5.控制设备的配置
1-6.设置在常规移动体内的投影仪的问题
2.第一实施例
2-1.投影系统的功能配置
2-2.投影仪的配置
2-3.传感器单元的配置
2-4.控制设备的配置
2-4-1.控制单元的功能配置
2-5.投影系统的处理
2-6.作用和效果
3.第二实施例
3-1.投影系统的功能配置
3-2.传感器单元的配置
3-3.控制设备的配置
3-3-1.控制单元的功能配置
3-4.投影系统的处理
3-5.作用和效果
4.第三实施例
4-1.投影系统的功能配置
4-2.传感器单元的配置
4-3.控制设备的配置
4-3-1.控制单元的功能配置
4-4.投影系统的处理
4-5.作用和效果
5.第四实施例
5-1.投影系统的功能配置
5-2.控制单元的功能配置
5-3.投影系统的处理
5-4.作用和效果
6.第五实施例
6-1.投影系统的功能配置
6-2.传感器单元的配置
6-3.控制设备的配置
6-3-1.控制单元的功能配置
6-4.投影系统的处理
6-5.作用和效果
7.第六实施例
7-1.投影系统的功能配置
7-2.传感器单元的配置
7-3.控制设备的配置
7-3-1.控制单元的功能配置
7-4.投影系统的处理
7-5.作用和效果
8.对移动体的应用例
9.结论
<1.投影系统的配置>
[1-1.投影系统的示意配置]
图1是应用于本公开的各个实施例的投影系统的示意侧视图。图2是应用于本公开的各个实施例的投影系统的示意顶视图。
图1和图2中图解所示的投影系统1是设置在移动体10内,并向乘坐在移动体10内的乘员提供视频的系统。这里,移动体10的例子包括汽车、电动汽车、混合动力电动汽车、摩托车、自行车、个人机动设备、飞机、无人机、船舶、机器人、工程机械和农业机械(拖拉机)。下文中,作为移动体10的例子将说明汽车。在图1和图2中,将在假设乘坐移动体10的乘员的人数为6人(6座)的情况下进行说明,但是本发明不限于此,本发明也可应用于例如2人(2座)或4人(4座)。
图1和图2中图解所示的投影系统1包括投影仪20、传感器单元30、内容再现设备40和控制设备50。
[1-2.投影仪的配置]
首先,将说明投影仪20的配置。
在控制设备50的控制下,投影仪20向移动体10的具有自由曲面的顶棚11和作为后视镜部分15(遮阳板)的投影面投影视频,使得在移动体10内所有乘员都能够在视觉上识别视频。在移动体10中,投影仪20布置后座13的后上方,这是不在乘员的移动线路上的位置。具体地,如图1和图2中图解所示,投影仪20布置在后座13后方,并且在后座13的肩部131的上方。此外,投影仪20配置在移动体10内,以便能够将视频投影到移动体10的前上方的顶棚11上。注意,在本公开的各个实施例中,投影仪20起投影设备的作用。在图1和图2中,投影仪20可以相对于移动体10拆卸。此外,在图1和图2中,投影仪20朝向移动体10的长边方向投影视频,但是本发明不限于此,投影仪可被配置为朝向移动体10的短边方向投影视频。此外,在图1和图2中,在移动体10内只设置了一个投影仪20,但是例如,在移动体10内可以设置多个投影仪,或者可以在移动体10外设置投影仪以将视频投影到移动体10内。投影仪20的安装地点不限于后座13的后方,并且例如可以是移动体10的顶棚,并且可以适当变更。注意,投影仪20的详细配置将在后面说明。
[1-3.传感器单元的配置]
接下来,将说明传感器单元30的配置。
传感器单元30检测移动体10内的乘员的人数及就座位置,并将该检测结果输出到控制设备50。在移动体10内布置多个传感器单元30。具体地,传感器单元30布置在移动体10的A柱部分14、后视镜部分15、B柱部分16和中央控制台17中。布置在A柱部分14和后视镜部分15中的传感器单元30检测在移动体10的前座12的乘员者和就座位置。布置在B柱部分16和中央控制台17中的传感器单元30检测在后座13的乘员和就座位置。传感器单元30通过使用能够成像彩色图像数据的相机、具有视差的视差图像数据的立体相机、能够成像具有深度信息的距离图像数据的飞行时间(TOF)相机(传感器)、能够检测乘员的视线的视线检测传感器等来实现。传感器单元30还可以设置有设置在移动体10的后座13后方并且能够检测移动体10的内部空间的形状的立体相机、TOF相机等。注意,传感器单元30的配置将在后面说明。
[1-4.内容再现设备的配置]
接下来,将说明内容再现设备40的配置。
内容再现设备40在控制设备50的控制下,将包括内容数据的各种类型的信息输出到投影仪20。内容再现设备40读取例如存储在硬盘驱动器(HDD)、固态驱动器(SSD)、存储卡、DVD等中的诸如视频数据之类的内容数据,将读取的内容数据转换成预定格式,并将内容数据输出到投影仪20。这里,除视频数据以外,内容数据还包括地图数据、文本数据、图形数据等。注意,内容再现设备40可以经由网络从外部服务器获取内容数据,并将获取的内容数据输出到投影仪20。当然,内容再现设备40可以将利用移动电话机输入的内容数据输出到投影仪20。内容再现设备40可以通过使用显示移动体10的位置信息的导航系统等来实现。
[1-5.控制设备的配置]
接下来,将说明控制设备50的配置。
控制设备50控制组成包括移动体10的投影系统1的各个单元。控制设备50例如起移动体10的电子控制单元(ECU)的一部分的作用。具体地,控制设备50从移动体10内的各种传感器获取各种类型的信息,并通过与其他ECU协作,以综合的方式控制包括移动体10的投影系统1。控制设备50基于指示由传感器单元30检测的移动体10的空间状况的空间状况信息,控制投影仪20投影的视频的状态。具体地,控制设备50基于指示由传感器单元30检测的移动体10的空间状况的空间状况信息,控制由投影仪20投影到投影面的视频的聚焦状态。注意,控制设备50的详细配置将在后面说明。
[1-6.设置在常规移动体内的投影仪的问题]
在包括投影仪20的常规投影设备中,投影面被假设为平面。于是,常规投影设备不会设想朝向形成自由形态的移动体10的顶棚11的大屏幕投影,也不会设想从后方到前方的倾斜投影。结果,在移动体10上设置常规投影设备的情况下,投影的视频(图像)的质量会取决于乘员的就座位置,例如乘员的前后位置而变化。
此外,在常规投影设备中,乘员在距投影面预定距离处观看视频。然而,在将常规投影设备设置在移动体10内的情况下,乘员在视觉上识别视频的距离也近,因此易于把握视频的差异以及视频是好还是坏。
此外,在使用移动体10的场景中,乘坐移动体10的乘员的人数和就座位置也发生变化。因此,常规投影设备需要投影与移动体10内的乘员的人数和就座位置对应的视频。然而,在常规投影设备中,根本没有考虑移动体10内的乘员的人数和就座位置。
如上所述,在常规投影设备中,在将投影设备设置在移动体10内的情况下,没有考虑向移动体10内的乘员提供最合适的视频。
<2.第一实施例>
[2-1.投影系统的功能配置]
接下来,将说明按照第一实施例的投影系统1的功能配置。图3是图解说明按照第一实施例的投影系统1的功能配置的框图。
如图3中图解所示,投影系统1包括投影仪20、传感器单元30、内容再现设备40和控制设备50。
[2-2.投影仪的配置]
首先,将说明投影仪20的配置。
投影仪20包括显示驱动器21、显示设备22、光源单元23、投影透镜24、驱动用驱动器25、光学设备驱动单元26和投影仪控制单元27。
显示驱动器21在投影仪控制单元27的控制下,对从内容再现设备40输入的内容数据进行预定的图像处理,并将内容数据输出到显示设备22。这里,预定的图像处理是增益处理、白平衡处理、格式转换处理等。显示驱动器21通过使用存储器和具有诸如中央处理单元(CPU)、现场可编程门阵列(FPGA)或数字信号处理器(DSP)之类的硬件的处理器来实现。
显示设备22显示与从显示驱动器21输入的内容数据对应的视频或图像。显示设备22通过使用诸如液晶或有机电致发光(EL)之类的显示面板来实现。
光源单元23在投影仪控制单元27的控制下,用照明光照射显示设备22的显示面。光源单元23通过使用氙灯、发光二极管(LED)灯、一个或多个透镜、棱镜、反射镜等来实现。
投影透镜24将由显示设备22的显示面反射的反射光投影(出射)到投影面。投影透镜24通过使用一个或多个透镜、棱镜等来实现。投影透镜24被设置为可沿光路L1移动。
在投影仪控制单元27的控制下,驱动用驱动器25生成用于驱动光学设备驱动单元26的驱动信号,并将该生成的驱动信号输出到光学设备驱动单元26。驱动用驱动器25例如通过使用PWM脉冲电路等来实现。
光学设备驱动单元26通过按照从驱动用驱动器25输入的驱动信号沿光路L1移动投影透镜24,调整投影仪20的聚焦状态和视频的投影面积。具体地,光学设备驱动单元26通过沿光路L1移动投影透镜24的聚焦透镜,调整投影仪20投影的视频的聚焦位置。光学设备驱动单元26通过使用脉冲电动机、音圈电动机、DC电动机等来实现。注意,在使用倾斜透镜(能够倾斜的倾斜移位透镜)配置投影透镜24的情况下,只需要光学设备驱动单元26通过使投影透镜24的光轴指向倾斜方向、倾斜方向和移位方向中的任意一个方向,来调整投影仪20投影的视频的聚焦位置。
投影仪控制单元27基于从后面说明的控制设备50输入的控制信号控制驱动用驱动器25,并通过沿光路L1移动投影透镜24,控制由投影仪20投影到投影面的视频的聚焦状态。投影仪控制单元27通过使用存储器和具有诸如CPU、PFGA或DSP之类硬件的处理器来实现。
[2-3.传感器单元的配置]
接下来,将说明传感器单元30的功能配置。
传感器单元30至少包括相机31。
相机31包括具有一个或多个透镜的光学系统,和通过接收由该光学系统形成的被摄物体图像而生成彩色图像数据的诸如电荷耦合器件(CCD)传感器和互补金属氧化物半导体(CMOS)传感器之类的成像元件。注意,在成像元素的受光面上布置有拜耳阵列的滤色镜。相机31在控制设备50的控制下,通过按照预定帧速率对移动体10内部成像,依次向控制设备50输出彩色图像数据。
[2-4.控制设备的配置]
接下来,将说明控制设备50的功能配置。
控制设备50包括输入单元51、控制单元52和输出单元53。
输入单元51向控制单元52输出从传感器单元30输入的空间状况信息。具体地,输入单元51接收从传感器单元30的相机31输入的图像数据和各种类型的信息,并将输入的图像数据和各种类型的信息输出到控制单元52。输入单元51例如通过使用输入I/F电路、HDMI(注册商标)输入端子等来实现。
基于从输入单元51输入的空间状况信息,控制单元52生成用于控制投影仪20投影的视频的状态的控制信号,并将该控制信号输出到输出单元53。控制单元52通过使用存储器和包括诸如CPU、FPGA或DSP之类硬件的处理器来实现。注意,控制单元52的详细配置将在后面说明。
输出单元53将从控制单元52输入的控制信号输出到投影仪20。输出单元53例如通过使用I/F电路、HDMI输出端子等来实现。
[2-4-1.控制单元的功能配置]
接下来,将说明控制单元52的详细功能配置。
图4是图解说明控制单元52的详细功能配置的框图。
如图4中图解所示,控制单元52包括识别单元521、存储器522、计算单元523和生成单元524。
识别单元521基于从输入单元51输入的空间状况信息,识别移动体10内的乘员的人数和就座位置。具体地,通过基于从相机31输入的彩色图像数据和存储在存储器522中的移动体10的移动体信息进行已知的模板匹配等,识别单元521识别移动体10内的乘员的人数和就座位置。这里,移动体信息是指示移动体10处于无人状态的内部空间的图像数据、指示移动体10内的内部空间的空间数据(CAD数据)等。识别单元521将识别结果输出到计算单元523和生成单元524。此外,基于作为从输入单元51输入的空间状况信息的图像数据,识别单元521识别移动体10的乘员的头部位置和眼睛位置中的至少一个,并将该识别结果输出到计算单元523和生成单元524。注意,识别单元521通过模板匹配等来识别(检测)移动体10内的乘员的人数、就座位置、头部位置、眼睛位置等,但是例如乘员的人数、就座位置、头部位置、眼睛位置等也可以使用经过机器学习的学习结果来识别。
存储器522存储移动体10内的空间状况、投影仪20将视频投影到的投影面的位置、投影区域以及关于移动体10的移动体信息。存储器522通过使用易失性存储器、非易失性存储器等来实现。
计算单元523针对每个乘员,计算由识别单元521识别的乘员的就座位置与存储在存储器522中的投影仪20投影的视频的投影面之间的距离,并将该计算结果输出到生成单元524。具体地,计算单元523针对每个乘员,计算由识别单元521识别的就座乘员的视点位置(眼睛或头部的中心的位置)与投影仪20投影的视频的投影面之间的距离,并将该计算结果输出到生成单元524。
基于从识别单元521输入的识别结果和从计算单元523输入的计算结果,生成单元524生成用于控制投影仪20投影的视频的聚焦状态的控制信号,并将该控制信号输出到投影仪20。具体地,生成单元524基于由识别单元521识别的乘员的人数和乘员的就座位置,生成用于控制投影仪20投影的视频的聚焦状态的控制信号。更具体地,基于由识别单元521识别的乘员的人数、乘员的就座位置、以及由计算单元523计算的每个乘员的距离,生成单元524生成用于调整投影仪20的投影透镜24的聚焦位置的控制信号,并将该控制信号输出到投影仪20。此外,基于由识别单元521识别的乘员的人数、乘员的就座位置、以及由计算单元523计算的每个乘员的距离,生成单元524生成用于在投影仪20投影的视频中提高特定区域的质量的控制信号,并将该控制信号输出到投影仪20。这里,视频的质量是视频的一致性、亮度(明亮度调整)、分辨率等。
[2-5.投影系统的处理]
接下来,将说明投影系统1执行的处理。
图5是图解说明投影系统1执行的处理的概况的流程图。
如图5中图解所示,首先,输入单元51从相机31获取彩色图像数据(RGB彩色图像数据)(步骤S101)。
随后,识别单元521对从输入单元51输入的图像数据进行检测移动体10的乘员的乘员检测处理(步骤S102),并在移动体10内有乘员的情况下(步骤S103:是),投影系统1转入后面说明的步骤S104。另一方面,当在移动体10内没有乘员时(步骤S103:否),投影系统1终止本处理。
在步骤S104,识别单元521基于通过对从输入单元51输入的图像数据进行检测移动体10的乘员的乘员检测处理而获得的检测结果,进行检测移动体10的乘员的人数的处理。在这种情况下,除乘员的人数以外,识别单元521还检测乘员在移动体10内的就座位置(乘员的绝对位置或对于各个座椅的每个乘员的相对位置)以及各个乘员的视点位置(头部的中心位置或眼睛的位置)。
随后,计算单元523进行针对每个乘员,计算识别单元521识别的乘员的就座位置与存储在存储器522中的投影仪20投影的视频的投影面之间的距离的距离计算处理(步骤S105)。
之后,生成单元524基于从识别单元521输入的识别结果和从计算单元523输入的计算结果,生成用于控制投影仪20投影的视频的聚焦状态的控制信号(步骤S106)。
随后,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26在光路L1上移动投影透镜24,投影仪控制单元27调整由投影仪20投影到投影面的视频的聚焦位置(步骤S107)。
图6是示意地图解说明在移动体10内有4个乘员的情况下的投影仪20的聚焦位置的示图。
如图6中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1(聚焦位置)与4个乘员U1至U4的视线聚集的区域对准,所述区域是投影仪20投影的投影面W1(投影范围)的中央部分的区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,4个乘员U1至U4的视线进一步聚集的区域W2的视频的质量。这使4个乘员U1至U4可以观看聚焦的视频。
图7是示意地图解说明在移动体10内的前座12有2个乘员的情况下的投影仪20的聚焦位置的示图。
如图7中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1与坐在前座12的2个乘员U1和U2的视线聚集的区域对准,所述区域是在投影仪20投影的投影面W1(投影范围)的前侧的中央区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,2个乘员U1和U2的视线进一步聚集的区域W2的视频的质量。这使2个乘员U1和U2可以观看聚焦的视频。
图8是示意地图解说明在移动体10内的前座12有1人的情况下的投影仪20的聚焦位置的示图。
如图8中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1与坐在前座12的乘员U1的视线的区域对准,所述区域是在投影仪20投影的投影面W1(投影范围)的中央部分前侧的右侧区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,乘员U1的视线进一步聚集的区域W2的视频的质量。这使乘员U1可以观看聚焦的视频。
图9是示意地图解说明在移动体10内的后座13有2人的情况下的投影仪20的聚焦位置的示图。
如图9中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1与坐在后座13的2个乘员U1和U2的视线聚集的区域对准,所述区域是相对于投影仪20投影的投影面W1(投影范围)的中央部分在后侧的区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,后座13的2个乘员U1和U2的视线进一步聚集的区域W2的视频的质量。这使乘员可以观看聚焦的视频。
图10是示意地图解说明在移动体10内的前后有2人的情况下的投影仪20的聚焦位置的示图。
如图10中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1与坐在前座12和后侧13的2个乘员U1和U2的视线聚集的区域对准,所述区域是在投影仪20投影的投影面W1(投影范围)的后侧或前侧的区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,前座12和后座13的2个乘员U1和U2的视线进一步聚集的区域W2的视频的质量。这使2个乘员可以观看聚焦的视频。注意,在使用倾斜透镜(能够倾斜的倾斜移位透镜)配置投影透镜24的情况下,只需要投影仪控制单元27通过驱动光学设备驱动单元26,使投影透镜24的光轴指向倾斜方向、倾斜方向和移位方向中的任意一个方向,来调整投影仪20投影的视频的聚焦位置。
图11是示意地图解说明在移动体10内的后座13有1人的情况下的投影仪20的聚焦位置的示图。
如图11中图解所示,基于从控制设备50输入的控制信号,通过控制驱动用驱动器25并驱动光学设备驱动单元26,投影仪控制单元27在光路L1上移动投影透镜24,使得聚焦位置P1与坐在后侧13的乘员U1的视线聚集的区域对准,所述区域是相对于投影仪20投影的投影面W1(投影范围)的中央部分在后侧的中央部分的中央区域。此外,投影仪控制单元27基于从控制设备50输入的控制信号控制显示驱动器21并驱动显示设备22,从而提高在投影面W1内,乘员U1的视线进一步聚集的区域W2的视频的质量。这使乘员U1可以观看聚焦的视频。
返回图5,继续步骤S108及后续步骤的说明。
在步骤S108,基于从内容再现设备40输入的内容数据,投影仪控制单元27控制显示驱动器21,并使显示设备22投影对应于内容数据的视频。在步骤S108之后,投影系统1终止本处理。
[2-6.作用和效果]
按照上述第一实施例,控制单元52基于从检测移动体10内的空间状况的传感器单元30输入的空间状况信息,控制由设置在移动体10内的空间中的投影仪20投影到预定投影面的视频的状态。这使移动体10内的乘员可以在视觉上识别最合适的视频。
按照第一实施例,由于识别单元521基于空间状况信息识别移动体10内的乘员的人数和就座位置,并且生成单元524基于由识别单元521识别的人数和就座位置,生成用于控制投影仪20投影的视频的聚焦状态的控制信号,因此能够提供聚焦于移动体10内的乘员的视频。
按照第一实施例,由于生成单元524基于由识别单元521识别的人数、就座位置和由计算单元523计算的每个乘员的距离,生成用于控制投影仪20投影的视频的聚焦状态的控制信号,因此能够提供聚焦于移动体10内的乘员的视频。
按照第一实施例,由于计算单元523基于乘员的头部位置和眼睛位置中的至少一个以及就座位置来计算每个乘员的距离,因此能够计算到适合于该乘员的正确聚焦位置的距离。
按照第一实施例,由于生成单元524生成用于控制投影仪20的聚焦位置的控制信号,并将该控制信号输出到投影仪20,因此能够提供聚焦于移动体10内的乘员的视频。
按照第一实施例,由于生成单元524生成用于调整投影仪20投影的视频的亮度的控制信号,并将该控制信号输出到投影仪20,因此能够向移动体10内的乘员提供最合适的视频。
<3.第二实施例>
接下来,将说明第二实施例。按照第二实施例的投影系统在按照上述第一实施例的投影系统1的传感器单元30和控制设备50的配置方面不同。下文中将说明按照第二实施例的投影系统。注意,与上述第一实施例相同的组件用相同的附图标记表示,并将省略详细的说明。
[3-1.投影系统的功能配置]
图12是图解说明按照第二实施例的投影系统的功能配置的框图。
代替按照上述第一实施例的传感器单元30和控制设备50,图12中图解所示的投影系统1A包括传感器单元30A和控制设备50A。
[3-2.传感器单元的配置]
首先,将说明传感器单元30A的配置。
除了按照上述第一实施例的传感器单元30的配置之外,传感器单元30A还包括加速度传感器32。
加速度传感器32检测在移动体10中生成的加速度信息,并将该加速度信息输出到控制设备50A。具体地,加速度传感器32检测移动体10的三个轴(X轴、Y轴和Z轴)的加速度,作为在移动体10中生成的摇晃。注意,除了加速度传感器32之外,还可以设置陀螺仪传感器(角速度传感器)。
[3-3.控制设备的配置]
接下来,将说明控制设备50A的配置。
代替按照上述第一实施例的控制单元52,控制设备50A包括控制单元52A。
基于来自相机31的图像数据和来自加速度传感器32的加速度信息,控制单元52A生成用于控制投影仪20投影的视频的状态的控制信号,并将该控制信号输出到输出单元53。
[3-3-1.控制单元的功能配置]
接下来,将说明控制单元52A的详细功能配置。
图13是图解说明控制单元52A的详细功能配置的框图。
除了按照上述第一实施例的控制单元52的配置之外,图13中图解所示的控制单元52A还包括摇晃计算单元525。此外,代替按照上述第一实施例的生成单元524,控制单元52A包括生成单元524A。
基于经由输入单元51从加速度传感器32输入的加速度信息,摇晃计算单元525计算在移动体10内生成的摇晃,并将该计算结果输出到生成单元524A。
生成单元524A基于识别单元521的识别结果、计算单元523的计算结果以及摇晃计算单元525的计算结果,生成用于控制投影仪20的聚焦状态的控制信号。生成单元524A经由输出单元53将控制信号输出到投影仪20。
[3-4.投影系统的处理]
接下来,将说明投影系统1A执行的处理。
图14是图解说明投影系统1A执行的处理的概况的流程图。
如图14中图解所示,首先,输入单元51从相机31获取图像数据,并从加速度传感器32获取加速度信息(步骤S201)。
步骤S202至S205分别对应于上面说明的步骤S102至S105。
在步骤S206,摇晃计算单元525基于经由输入单元51从加速度传感器32输入的加速度信息,计算在移动体10中生成的摇晃。
随后,生成单元524A基于识别单元521的识别结果、计算单元523的计算结果以及摇晃计算单元525的计算结果,生成用于控制投影仪20的聚焦状态的控制信号(步骤S207)。
步骤S208和S209分别对应于上面说明的步骤S207和S208。在步骤S208之后,投影系统1A终止本处理。
[3-5.作用和效果]
按照上面说明的第二实施例,基于由识别单元521识别的人数、就座位置、以及由摇晃计算单元525计算出的在移动体10中生成的摇晃,生成单元524A生成控制信号并将该控制信号输出到投影仪20。于是,由于可以跟随移动体10的摇晃和乘员的摇晃来调整视频的投影状态,因此即使环境或状态发生变化,也可以提供聚焦于移动体10内的乘员的视频。
<4.第三实施例>
接下来,将说明第三实施例。第三实施例在按照上述第一实施例的传感器单元30和控制设备50的配置方面不同。下文中,将说明按照第三实施例的投影系统。注意,与上述第一实施例相同的组件用相同的附图标记表示,并将省略详细的说明。
[4-1.投影系统的功能配置]
图15是图解说明按照第三实施例的投影系统的功能配置的框图。
代替按照上述第一实施例的传感器单元30和控制设备50,图15中图解所示的投影系统1B包括传感器单元30B和控制设备50B。
[4-2.传感器单元的配置]
首先,将说明传感器单元30B。
除了按照上述第一实施例的传感器单元30的配置之外,传感器单元30B还包括立体相机33和TOF相机34。
立体相机33生成具有视差的立体图像数据,并将该立体图像数据输出到控制设备50B。立体相机33通过使用具有视差的2个光学系统和接收由2个光学系统中的每一个形成的被摄物体图像的2个诸如CCD或CMOS之类的图像传感器来实现。
通过对移动体10的内部成像,TOF相机34生成距离图像数据(深度图像),所述距离图像数据具有其中深度信息由每个像素的灰度值表示的距离信息。TOF相机34通过使用能够出射红外光的光源、能够对由对象反射的红外光成像的诸如CCD或CMOS之类的成像元件等来实现。
[4-3.控制设备的配置]
接下来,将说明控制设备50B的配置。
代替按照上述第一实施例的控制单元52,控制设备50B包括控制单元52B。
基于经由输入单元51的图像数据、立体图像数据和深度信息图像数据,控制单元52B生成用于控制投影仪20投影的视频的状态的控制信号,并将该控制信号输出到输出单元53。
[4-3-1.控制单元的功能配置]
接下来,将说明控制单元52B的详细功能配置。
图16是图解说明控制单元52B的详细功能配置的框图。
代替上述第一实施例的计算单元523,控制单元52B包括计算单元523B。
计算单元523B包括第一距离计算单元5231和第二距离计算单元5232。
基于经由输入单元51输入的立体图像数据,第一距离计算单元5231计算坐在近距离的乘员与投影仪20投影的视频的投影面之间的距离,并将该计算结果输出到生成单元524B。此外,第一距离计算单元5231计算投影仪20将视频投影到的投影面的形状和每个预定区域的距离,并将该计算结果输出到生成单元524B。
基于经由输入单元51输入的距离图像数据,第二距离计算单元5232计算坐在远距离的乘员与投影仪20投影的视频的投影面之间的距离,并将该计算结果输出到生成单元524B。此外,第二距离计算单元5232计算投影仪20将视频投影到的投影面的形状和每个预定区域的距离,并将该计算结果输出到生成单元524B。
基于从识别单元521输入的识别结果以及从第一距离计算单元5231和第二距离计算单元5232中的每一个输入的计算结果,生成单元524B生成用于控制投影仪20投影的视频聚焦状态的控制信号,并将该控制信号输出到投影仪20。具体地,生成单元524B基于从第一距离计算单元5231和第二距离计算单元5232中的每一个输入的投影仪20投影的投影面上的各个区域的距离,以及从识别单元521输入的识别结果,生成用于控制由投影仪20投影的视频的聚焦状态的控制信号。
[4-4.投影系统的处理]
接下来,将说明投影系统1B执行的处理。图17是图解说明投影系统1B执行的处理的概况的流程图。
如在图17中图解所示,首先,输入单元51从传感器单元30B获取图像数据、立体图像数据以及深度信息图像数据(步骤S301)。
步骤S302至S304分别对应于上面说明的步骤S102至S104。
在步骤S305,第一距离计算单元5231进行基于经由输入单元51输入的立体图像数据,计算坐在近距离的乘员与投影仪20投影的视频的投影面之间的距离的第一距离计算处理。
随后,第二距离计算单元5232进行基于经由输入单元51输入的距离图像数据,计算坐在远距离的乘员与投影仪20投影的视频的投影面之间的距离的第二距离计算处理(步骤S306)。
之后,基于从识别单元521输入的识别结果以及从第一距离计算单元5231和第二距离计算单元5232中的每一个输入的计算结果,生成单元524B生成用于控制投影仪20投影的视频的聚焦状态的控制信号(步骤S307)。
步骤S308和S309分别对应于上面说明的步骤S107和S108。
[4-5.作用和效果]
按照上面说明的第三实施例,生成单元524B基于从识别单元521输入的识别结果以及从第一距离计算单元5231和第二距离计算单元5232中的每一个输入的计算结果,生成用于控制投影仪20投影的视频的聚焦状态的控制信号。这使移动体10内的乘员可以在视觉上识别聚焦的视频。
<5.第四实施例>
接下来,将说明第四实施例。按照第四实施例的投影系统在按照上述第一实施例的控制设备50的配置方面不同。下文中将说明按照第四实施例的投影系统。注意,与上述第一实施例相同的组件用相同的附图标记表示,并将省略详细的说明。
[5-1.投影系统的功能配置]
图18是图解说明按照第四实施例的投影系统的功能配置的框图。
代替按照上述第一实施例的控制设备50,图18中图解所示的投影系统1C包括控制设备50C。
代替按照上述第一实施例的控制设备50的控制单元52,控制设备50C包括控制单元52C。控制单元52C基于从内容再现设备40输入的内容数据,控制投影仪20投影的视频的聚焦状态。
[5-2.控制单元的功能配置]
图19是图解说明控制单元52C的功能配置的框图。
代替按照上述第一实施例的控制单元52的计算单元523,图19中图解所示的控制单元52C包括指定单元526。控制单元52C还包括生成单元524C,而不是生成单元524。
基于经由输入单元51输入的内容数据,指定单元526指定在投影仪20投影的视频中强调的强调位置,并将该指定结果输出到生成单元524C。
生成单元524C基于从识别单元521输入的识别结果和从指定单元526输入的指定结果,生成用于控制投影仪20投影的视频的聚焦状态的控制信号。生成单元524C经由输出单元53将控制信号输出到投影仪20。
[5-3.投影系统的处理]
接下来,将说明投影系统1C执行的处理。
图20是图解说明投影系统1C执行的处理的概况的流程图。
在图20中,首先,输入单元51从相机31获取图像数据,并从内容再现设备40获取内容数据(步骤S401)。
步骤S402至S404分别对应于上面说明的步骤S102至S104。
在步骤S405,基于经由输入单元51的内容数据,指定单元526进行指定在投影仪20投影的视频中强调的强调位置并将该指定结果输出到生成单元524C的强调位置指定处理。
随后,生成单元524C基于从识别单元521输入的识别结果和从指定单元526输入的指定结果,生成用于控制投影仪20投影的视频的聚焦状态的控制信号(步骤S406)。
图21是示意地图解说明基于由生成单元524生成的控制信号的投影仪20投影的视频的聚焦状态的示图。
在第四实施例中,在投影仪20近距离并且以大画面将视频(例如,导航图像)投影到移动体10的顶棚11的情况下,同样的内容由所有乘员共享,因此乘员须具有相同的视线。因此,在第四实施例中,通过引导乘员所观看的点,要求所有乘员都快速地观看同一点。此外,由于移动体10一直在移动,因此要求在该定时使乘员快速地共享移动对象。
因此,如在图21中图解所示,生成单元524C生成其中聚焦状态在区域W10上的控制信号,区域W10包括由指定单元526指定的在投影面W1的视频内要强调的强调位置,并将该控制信号输出到投影仪20。在这种情况下,生成单元524C生成其中使投影仪20的聚焦位置(焦点位置)与指定单元526指定的在视频内要强调的强调位置对准并且从聚焦位置到预定区域W10聚焦的控制信号。这使移动体10内的所有乘员都可以自然地在视觉上识别同一视频的区域W10。
注意,生成单元524C可以生成除了聚焦位置之外,还与其他区域相比更加强调区域W10中的分辨率、对比度、亮度等的控制信号,并将该控制信号输出到投影仪20。此外,在图21中,视频是诸如地图之类的导航图像,但是不限于此,例如可以是移动体10的周边信息和紧急信息。在这种情况下,生成单元524C可以生成其中聚焦位置与叠加图像中的周边信息和紧急信息对准的控制信号,在所述叠加图像中,基于移动体10的位置信息将移动体10的周边信息和紧急信息叠加在视频上。当然,在图21中,作为例子说明了诸如地图之类的导航图像,但是本发明不限于此,例如,可以使用文字和图形。
步骤S407和S408分别对应于上面说明的步骤S107和S108。
[5-4.作用和效果]
按照上面说明的第四实施例,生成单元524C基于从识别单元521输入的识别结果和从指定单元526输入的指定结果,生成用于控制投影仪20投影的视频的聚焦状态的控制信号。这使得能够快速地将乘员的视线引导到视频中重要的区域,并且能够容易地将视线引导到大屏幕上的注视点。
<6.第五实施例>
接下来,将说明第五实施例。按照第五实施例的投影系统与按照上述第一实施例的投影系统1的传感器单元30和控制设备50在配置方面不同。下文中将说明按照第五实施例的投影系统。注意,与上述第一实施例相同的组件用相同的附图标记表示,并将省略详细的说明。
[6-1.投影系统的功能配置]
图22是图解说明按照第五实施例的投影系统的功能配置的框图。
代替按照上述第一实施例的传感器单元30和控制设备50,图22中图解所示的投影系统1D包括传感器单元30D和控制设备50D。
[6-2.传感器单元的配置]
首先,将说明传感器单元30D的配置。
传感器单元30D包括相机31和交互设备35。
交互设备35通过使用TOF相机等来实现,检测乘员的手势,并将该检测结果输出到控制设备50D。例如,交互设备35检测乘员利用手指指示的方向和位置,并将该检测结果输出到控制设备50D。注意,除TOF相机以外,还可以使用例如立体相机等来实现交互设备35。
[6-3.控制设备的配置]
接下来,将说明控制设备50D的配置。
代替按照上述第一实施例的控制设备50的控制单元52,控制设备50D包括控制单元52D。
基于经由输入单元51从相机31输入的图像数据和从TOF相机34输入的深度信息图像数据,控制单元52D生成用于调整投影仪20投影的视频的聚焦状态的控制信号,并且将该控制信号输出到投影仪20。
[6-3-1.控制单元的功能配置]
接下来,将说明控制单元52D的功能配置。
图23是图解说明控制单元52D的功能配置的框图。
代替按照上述第一实施例的控制单元52的计算单元523,控制单元52D包括手势确定单元527。此外,代替按照上述第一实施例的控制单元52的存储器522和生成单元524,控制单元52D包括存储器522D和生成单元524D。
存储器522D存储关于移动体10的车辆内部的车辆内部信息。这里,车辆内部信息是指示移动体10的车辆内部空间的3D数据,以及指示各种部件,例如A柱、B柱等的位置的位置信息。
基于经由输入单元51输入的深度信息图像数据和识别单元521识别的识别结果,手势确定单元527确定移动体10的乘员的手势(动作),并将该确定结果输出到生成单元524D。这里,手势是乘员利用手指等指示的位置及方向、乘员的视线、乘员的运动、动作等。
生成单元524D基于识别单元521识别的识别结果和手势确定单元527确定的确定结果,生成用于调整投影仪20投影的视频的聚焦状态的控制信号。生成单元524D经由输出单元53将控制信号输出到投影仪20。
[6-4.投影系统的处理]
接下来,将说明投影系统1D执行的处理。
图24是图解说明投影系统1D执行的处理的概况的流程图。
如图24中图解所示,首先,输入单元51从相机31获取图像数据,并从TOF相机获取深度信息图像数据(步骤S501)。
步骤S502和S503分别对应于上面说明的步骤S102和S103。
在步骤S504,手势确定单元527基于经由输入单元51输入的深度信息图像数据和识别单元521识别的识别结果,确定移动体10的乘员的手势(动作)。
随后,生成单元524D基于识别单元521识别的识别结果和手势确定单元527确定的确定结果,生成用于调整投影仪20投影的视频的聚焦状态的控制信号(步骤S505)。为了在坐在前座和后座的时候进行交流,乘员希望向坐在前座12的乘员告知坐在后座13的乘员正在注视什么(视线的位置)。此外,利用一般的指示器,注视的信息被指示器本身遮挡,因此所需的信息不足。因此,生成单元524D基于识别单元521识别的识别结果和手势确定单元527确定的确定结果,生成用于调整投影仪20投影的视频的聚焦状态的控制信号。这使乘员被投影如下视频:其中使聚焦位置与包括其他乘员的手势的区域,例如,其他乘员指示的位置对准的视频。结果,所有乘员都能够进行顺畅的交流。
步骤S506和S507分别对应于上面说明的步骤S107和S108。
[6-5.作用和效果]
按照上面说明的第五实施例,由于生成单元524D基于识别单元521识别的识别结果和手势确定单元527确定的确定结果,生成用于调整投影仪20投影的视频的聚焦状态的控制信号,因此投影仪20投影的视频的聚焦位置能够被调整到与乘员的意愿相应的位置。
<7.第六实施例>
接下来,将说明第六实施例。按照第六实施例的投影系统与按照上述第一实施例的投影系统1的传感器单元30和控制设备50在配置方面不同。下文中将说明按照第六实施例的投影系统。注意,与按照上述第一实施例的投影系统1相同的组件用相同的附图标记表示,并将省略详细的说明。
[7-1.投影系统的功能配置]
图25是图解说明按照第六实施例的投影系统的功能配置的框图。
代替按照上述第一实施例的投影系统1的传感器单元30和控制设备50,图25中图解所示的投影系统1E包括传感器单元30E和控制设备50E。
[7-2.传感器单元的配置]
首先,将说明传感器单元30E的配置。
传感器单元30E包括相机31、加速度传感器32、立体相机33、TOF相机34和输入设备36。
输入设备36接收乘员的输入操作,并将与接收的操作对应的输入信息输出到控制设备50E。输入设备36通过使用按钮、开关、触摸屏、滚轮等来实现。
[7-3.控制设备的配置]
接下来,将说明控制设备50E的配置。
代替按照上述第一实施例的控制单元52,控制设备50E包括控制单元52E。
基于经由输入单元51从传感器单元30E输入的各种类型的信息,控制单元件52E生成用于调整投影仪20投影的视频的聚焦状态的控制信号,并将该控制信号输出到投影仪20。
[7-3-1.控制单元的功能配置]
图26是图解说明控制单元52E的功能配置的框图。图26中图解所示的控制单元52E包括在上述第一到第五实施例中说明的识别单元521、存储器522、计算单元523A、摇晃计算单元525、指定单元526和手势确定单元527。此外,代替按照上述第一实施例的生成单元524,控制单元52E包括生成单元524E。
生成单元524E基于识别单元521的识别结果、计算单元523A的计算结果、摇晃计算单元525的计算结果、指定单元526的指定结果以及手势确定单元527的确定结果中的至少一个,生成用于调整投影仪20投影的视频的聚焦状态的控制信号。
[7-4.投影系统的处理]
接下来,将说明投影系统1E执行的处理。
图27是图解说明投影系统1E执行的处理的概况的流程图。
如图27中图解所示,首先,输入单元51获取从输入设备36输入的模式选择信号(步骤S601)。
随后,控制单元52E判定模式选择信号是否是乘员模式(步骤S602)。当控制单元52E判定模式选择信号是乘员模式时(步骤S602:是),投影系统1E转入后面说明的步骤S603。另一方面,当控制单元52E判定模式选择信号不是乘员模式时(步骤S602:否),投影系统1E转入后面说明的步骤S605。
在步骤S603,投影系统1E基于移动体10的乘员的人数、就座位置以及移动体10的摇晃,执行生成用于调整投影仪20投影的视频的聚焦状态的控制信号并将控制信号输出到投影仪20的乘员模式处理。乘员模式处理的细节是与上述图5的步骤S101至S108、图14的步骤S201至S209以及图17的步骤S301至S309中的任意一个的处理相似的处理,因此将省略详细的说明。在步骤S603之后,投影系统1E转入后面说明的步骤S604。
在步骤S604,控制单元52E判定是否从输入设备36输入了终止的指令信号。当控制单元52E判定从输入设备36输入了终止的指令信号时(步骤S604:是),投影系统1E终止本处理。另一方面,当控制单元52E判定没有从输入设备36输入终止的指令信号时(步骤S604:否),投影系统1E返回上面说明的步骤S601。
在步骤S605,控制单元52E判定模式选择信号是否是内容模式。当控制单元52E判定模式选择信号是内容模式时(步骤S605:是),投影系统1E转入后面说明的步骤S606。另一方面,当控制单元52E判定模式选择信号不是内容模式时(步骤S605:否),投影系统1E转入后面说明的步骤S607。
在步骤S606,投影系统1E执行基于内容数据,调整投影仪20投影的视频的聚焦状态的内容模式处理。内容模式处理的细节与上述图20的步骤S401至S408相似,因此将省略详细的说明。在步骤S606之后,投影系统1E转入步骤S604。
在步骤S607,控制单元52E判定模式选择信号是否是手势模式。当控制单元52E判定模式选择信号是手势模式时(步骤S607:是),投影系统1E转入后面说明的步骤S608。另一方面,当控制单元52E判定模式选择信号不是手势模式时(步骤S607:否),投影系统1E返回上面说明的步骤S601。
在步骤S608,投影系统1E执行基于乘员的手势生成用于调整投影仪20投影的视频的聚焦状态的控制信号的手势模式处理。手势模式处理的细节与上述图24的步骤S501至S507相似,因此将省略详细的说明。在步骤S608之后,投影系统1E转入后面说明的步骤S604。
[7-5.作用和效果]
按照上面说明的第六实施例,由于控制单元52E进行与从输入设备36输入的模式选择信号相应的处理,因此能够按照乘员所期望的模式提供最合适的视频。
<8.对移动体的应用例>
按照本公开的技术可以应用于各种产品。例如,按照本公开的技术可以实现为搭载在汽车、电动汽车、混合动力电动汽车、摩托车、自行车、个人机动设备、飞机、无人机、船舶、机器人、工程机械和农业机械(拖拉机)等任意类型的移动体上的设备。
图28是图解说明车辆控制系统7000的示意配置例子的框图,车辆控制系统7000是按照本公开的技术可以应用于的移动体控制系统的例子。
车辆控制系统7000包括经由通信网络7010连接的多个电子控制单元。在图28中图解所示的例子中,车辆控制系统7000包括驱动系统控制单元7100、车身系统控制单元7200、电池控制单元7300、车外信息检测单元7400、车内信息检测单元7500和综合控制单元7600。连接多个控制单元的通信网络7010例如可以是符合任意标准,比如控制器局域网络(CAN)、局部互连网络(LIN)、局域网(LAN)或FlexRay(注册商标)之类的车载通信网络。
各个控制单元包括按照各种程序进行算术处理的微计算机,存储由微计算机执行的程序、用于各种算术运算的参数等的存储单元,以及驱动各种控制目标设备的驱动电路。各个控制单元包括用于经由通信网络7010与其他控制单元通信的网络I/F,以及用于通过有线通信或无线通信与车辆内外的设备、传感器等通信的通信I/F。作为综合控制单元7600的功能配置,图28图解说明了微计算机7610、通用通信I/F 7620、专用通信I/F 7630、定位单元7640、信标接收单元7650、车内设备I/F 7660、语音/图像输出单元7670、车载网络I/F7680以及存储单元7690。其他控制单元类似地包括微计算机、通信I/F和存储单元。
驱动系统控制单元7100按照各种程序控制与车辆的驱动系相关的设备的操作。例如,驱动系统控制单元7100起诸如内燃机或驱动电动机之类的生成车辆的驱动力的驱动力生成设备、把驱动力传递给车轮的驱动力传递机构、调整车辆的转向角度的转向机构、生成车辆的制动力的制动设备等的控制设备的作用。驱动系统控制单元7100可以具有作为诸如防抱死制动系统(ABS)或电子稳定控制(ESC)之类的控制设备的功能。
驱动系统控制单元7100与车辆状态检测单元7110连接。车辆状态检测单元7110例如包括检测车身的轴向旋转运动的角速度的陀螺仪传感器,检测车辆的加速度的加速度传感器,或者检测加速踏板的操作量、制动踏板的操作量、方向盘的转向角度、发动机转速、车轮转速等的传感器中的至少一个。驱动系统控制单元7100使用从车辆状态检测单元7110输入的信号进行算术处理,并且控制内燃机、驱动电动机、电动助力转向设备、制动设备等。
车身系统控制单元7200按照各种程序控制搭载在车身上的各种设备的操作。例如,车身系统控制单元7200起无钥匙进入系统、智能钥匙系统、电动窗设备、或者诸如前大灯、尾灯、制动灯、闪光信号灯或雾灯之类的各种灯的控制设备的作用。在这种情况下,从替代钥匙的便携式设备发送的无线电波或者各种开关的信号可以输入到车身系统控制单元7200。车身系统控制单元7200接收这些无线电波或信号的输入,并控制车辆的门锁设备、电动窗设备、灯等。
电池控制单元7300按照各种程序控制作为驱动电动机的电源的蓄电池7310。例如,诸如电池温度、电池输出电压或电池的剩余电量之类的信息从包括蓄电池7310的电池设备输入到电池控制单元7300。电池控制单元7300使用这些信号进行算术处理,进行蓄电池7310的温度调节控制,或者包含在电池设备中的冷却设备等的控制。
车外信息检测单元7400检测在搭载有车辆控制系统7000的车辆外面的信息。例如,成像单元7410和车外信息检测器7420中的至少一个连接到车外信息检测单元7400。成像单元7410包括飞行时间(ToF)相机、立体相机、单目相机、红外相机或其他相机中的至少一个。车外信息检测器7420例如包括用于检测当前天气或气象的环境传感器,或者用于检测在搭载有车辆控制系统7000的车辆周围的其他车辆、障碍物、行人等的周围信息检测传感器中的至少一个。
环境传感器例如可以是检测雨天的雨滴传感器、检测雾的雾传感器、检测日照度的日照传感器、以及检测降雪的雪传感器中的至少一个。周围信息检测传感器可以是超声波传感器、雷达设备、或者光检测和测距、激光成像检测和测距(LIDAR)设备中的至少一个。成像单元7410和车外信息检测器7420可以作为独立传感器或设备来提供,或者可以作为其中集成多个传感器或设备的设备来提供。
这里,图29图解说明成像单元7410和车外信息检测器7420的安装位置的例子。成像单元7910、7912、7914、7916和7918例如设置在车辆7900的前鼻、侧后视镜、后保险杠、后门和车内挡风玻璃的上部中的至少一个位置。设置在前鼻的成像单元7910和设置在车内挡风玻璃的上部的成像单元7918主要获取车辆7900前方的图像。设置在侧后视镜的成像单元7912和7914主要获取车辆7900侧面的图像。设置在后保险杠或后门的成像单元7916主要获取车辆7900后方的图像。设置在车内挡风玻璃的上部的成像单元7918主要用于检测前车、行人、障碍物、交通信号灯、交通标志、车道等。
注意,图29图解说明成像单元7910、7912、7914和7916的成像范围的例子。成像范围a指示设置在前鼻的成像单元7910的成像范围,成像范围b和c指示设置在相应侧后视镜的成像单元7912和7914的成像范围,并且成像范围d指示设置在后保险杠或后门的成像单元7916的成像范围。例如,通过叠加利用成像单元7910、7912、7914和7916成像的图像数据,获得从上方看的车辆7900的鸟瞰图像。
设置在车辆7900的前面、后面、侧面、角落和车内挡风玻璃的上部的车外信息检测单元7920、7922、7924、7926、7928和7930例如可以是超声波传感器或雷达设备。设置在车辆7900的前鼻、后保险杠、后门和车内挡风玻璃的上部的车外信息检测单元7920、7926和7930例如可以是LIDAR设备。这些车外信息检测单元7920至7930主要用于检测前车、行人、障碍物等。
返回图28,继续进行说明。
车外信息检测单元7400使成像单元7410对车外的图像进行成像,并接收成像的图像数据。车外信息检测单元7400从连接的车外信息检测器7420接收检测信息。在车外信息检测器7420是超声波传感器、雷达设备或LIDAR设备的情况下,车外信息检测单元7400发送超声波、电磁波等,并接收所接收的反射波的信息。车外信息检测单元7400可以基于接收的信息,进行人、车辆、障碍物、标志、路面上的文字等的对象检测处理或距离检测处理。车外信息检测单元7400可以基于接收的信息,进行识别降雨、雾、路面状况等的环境识别处理。车外信息检测单元7400可以基于接收的信息,计算到车外的物体的距离。
车外信息检测单元7400可以基于接收的图像数据,进行人、车辆、障碍物、标志、路面上的文字等的图像识别处理或距离检测处理。车外信息检测单元7400可以对接收的图像数据进行诸如失真校正或对准之类的处理,并合成由不同成像单元7410成像的图像数据从而生成鸟瞰图像或全景图像。车外信息检测单元7400可以使用由不同成像单元7410成像的图像数据来进行视点变换处理。
车内信息检测单元7500检测关于车辆内部的信息。车内信息检测单元7500例如与检测驾驶员的状态的驾驶员状态检测单元7510连接。驾驶员状态检测单元7510可以包括对驾驶员成像的相机,检测驾驶员的生物信息的生物传感器,以及收集车内的语音的麦克风。生物传感器例如设置在座椅表面、方向盘等上,并检测坐在座椅上的乘员或握着方向盘的驾驶员的生物信息。车内信息检测单元7500可以基于从驾驶员状态检测单元7510输入的检测信息,计算驾驶员的疲劳度或专心度,或者判定驾驶员是否在打瞌睡。车内信息检测单元7500可以对收集的语音信号进行诸如噪声消除处理之类的处理。
综合控制单元7600按照各种程序控制车辆控制系统7000内的所有操作。综合控制单元7600与输入单元7800连接。输入单元7800例如通过可以由乘员操作以便进行输入的设备来实现,比如触摸屏、按钮、麦克风、开关或控制杆之类。通过对经麦克风输入的语音进行语音识别而获得的数据可以输入到综合控制单元7600。输入单元7800例如可以是使用红外线或其他无线电波的遥控设备,或者与车辆控制系统7000的操作对应的诸如移动电话机或个人数字助手(PDA)之类的外部连接设备。输入单元7800例如可以是相机,并且在这种情况下,乘员可以通过手势输入信息。或者,可以输入通过检测乘员所穿戴的可穿戴式设备的运动而获得的数据。此外,输入单元7800例如可以包括基于乘员等使用输入单元7800输入的信息生成输入信号并将该输入信号输出到综合控制单元7600的输入控制电路等。通过操作该输入单元7800,乘员等将各种数据输入到车辆控制系统7000,并指令处理操作。
存储单元7690可以包括存储由微计算机执行的各种程序的只读存储器(ROM),和存储各种参数、算术结果、传感器数值等的随机存取存储器(RAM)。存储单元7690可以通过磁存储设备,比如硬盘驱动器(HDD)、半导体存储设备、光存储设备、磁光存储设备等来实现。
通用通信I/F 7620是中介与存在于外部环境7750中的各种设备的通信的通用通信I/F。通用通信I/F 7620可以实现诸如全球移动通信系统(GSM)(注册商标)、WiMAX(注册商标)、长期演进(LTE)(注册商标)或LTE-Advanced(LTE-A)之类的蜂窝通信协议,或者诸如无线LAN(也称为Wi-Fi(注册商标))和蓝牙(注册商标)之类的其他无线通信协议。通用通信I/F 7620例如可以经由基站或接入点连接到存在于外部网络(例如,因特网、云网络、或特定于公司的网络)上的设备(例如,应用服务器或控制服务器)。例如通过使用对等(P2P)技术,通用通信I/F 7620可以连接到存在于车辆附近的终端(例如,驾驶员、行人或商店的终端,或者机器类型通信(MTC)终端)。
专用通信I/F 7630是支持为在车辆中使用而制定的通信协议的通信I/F。例如,专用通信I/F 7630可以实现诸如车辆环境中的无线接入(WAVE)(它是下层的IEEE802.11p和上层的IEEE 1609的组合)、专用短程通信(DSRC)或蜂窝通信协议之类的标准协议。专用通信I/F 7630一般进行V2X通信。V2X通信是包括车辆对车辆通信、车辆对基础设施通信、车辆对家通信、以及车辆对行人通信中的一个或多个的概念。
定位单元7640例如接收来自全球导航卫星系统(GNSS)卫星的GNSS信号(例如,来自全球定位系统(GPS)卫星的GPS信号),执行定位,并生成包括车辆的纬度、经度和海拔高度的位置信息。注意,定位单元7640可以通过与无线接入点交换信号来指定当前位置,或者可以从具有定位功能的诸如移动电话机、PHS或智能电话机之类的终端获取位置信息。
信标接收单元7650例如接收从安装在道路上的无线站等发送的无线电波或电磁波,并获取诸如当前位置、交通拥堵、封闭的道路、所需时间之类的信息。注意,信标接收单元7650的功能可以包含在上面说明的专用通信I/F 7630中。
车内设备I/F 7660是中介微计算机7610与存在于车辆中的各种车内设备7760之间的连接的通信接口。车内设备I/F 7660可以通过使用诸如无线LAN、蓝牙(注册商标)、近场通信(NFC)或无线USB(WUSB)之类的无线通信协议来建立无线连接。车内设备I/F 7660可以经由未图示的连接端子(以及线缆,如果需要的话),建立诸如通用串行总线(USB)、高清多媒体接口(HDMI)(注册商标)或移动高清链接(MHL)之类的有线连接。车内设备7760例如可以包括乘员拥有的移动设备或可穿戴式设备、或者车辆所附接的或附着到车辆上的信息设备中的至少一个。车内设备7760可以包括进行到任意目的地的路线搜索的导航设备。车内设备I/F 7660与车内设备7760交换控制信号或数据信号。
车载网络I/F 7680是中介微计算机7610与通信网络7010之间的通信的接口。车载网络I/F 7680按照通信网络7010支持的预定协议发送和接收信号等。
综合控制单元7600的微计算机7610基于经由通用通信I/F 7620、专用通信I/F7630、定位单元7640、信标接收单元7650、车内设备I/F7660和车载网络I/F 7680中的至少一个获取的信息,按照各种程序控制车辆控制系统7000。例如,微计算机7610可以基于获取的关于车辆内外的信息,进行对于驱动力生成设备、转向机构或制动设备的控制目标值的算术运算,并向驱动系统控制单元7100输出控制命令。例如,微计算机7610可以进行协同控制,以便实现高级驾驶员辅助系统(ADAS)的功能,包括车辆防撞或冲击缓和、基于车辆间距离的跟随行驶、车辆定速行驶、车辆碰撞报警、车辆车道偏离报警等。微计算机7610可以通过基于获取的关于车辆的周围的信息控制驱动力生成设备、转向机构、制动设备等,来进行以在不依赖于驾驶员的操作的情况下车辆自主行驶的自动驾驶等为目的的协同控制。
微计算机7610可以基于经由通用通信I/F 7620、专用通信I/F 7630、定位单元7640、信标接收单元7650、车内设备I/F 7660和车载网络I/F7680中的至少一个获取的信息,生成车辆与诸如周围的建筑物或人之类的物体之间的三维距离信息,并创建包括车辆的当前位置的周边信息的本地地图信息。微计算机7610可以基于获取的信息预测诸如车辆碰撞、行人等的接近、或者进入封闭的道路之类的危险,并生成报警信号。报警信号例如可以是用于生成报警声音或者开启报警灯的信号。
语音/图像输出单元7670将语音或图像中的至少一个的输出信号发送到输出设备,所述输出设备能够以视觉或听觉方式向车辆的乘员或者车辆外部通知信息。在图28的例子中,作为输出设备的例子,例示了音频扬声器7710、显示单元7720和仪表板7730。显示单元7720例如可以包括车载显示器和抬头显示器中的至少一个。显示单元7720可以具有增强现实(AR)显示功能。输出设备可以是除这些设备以外的其他设备,比如头戴式耳机、乘员穿戴的诸如眼镜式显示器之类的可穿戴式设备、投影仪或者灯。当输出设备是显示设备时,显示设备以诸如文本、图像、表格和图表之类的各种形式,在视觉上显示通过微计算机7610进行的各种处理获得的结果或者从控制单元接收的信息。当输出设备是语音输出设备时,语音输出设备将包括再现的语音数据、声学数据等的音频信号变换成模拟信号,并在听觉上输出所述模拟信号。
注意,在图28中图解所示的例子中,经由通信网络7010连接的至少两个控制单元可以被集成为一个控制单元。或者,每个控制单元可以包括多个控制单元。此外,车辆控制系统7000可以包括其他控制单元(未图示)。在上述说明中,由任意控制单元进行的一些或所有功能可以被提供给其他控制单元。即,只要信息是经由通信网络7010发送和接收的,预定的算术处理就可以由任意控制单元进行。类似地,连接到任意控制单元的传感器或设备可以连接到其他控制单元,并且多个控制单元可以经由通信网络7010相互发送和接收检测信息。
注意,用于实现参考图1说明的按照本实施例的投影系统1的各个功能的计算机程序可以在任意控制单元等上实现。还可以提供存储此类计算机程序的计算机可读记录介质。记录介质例如是磁盘、光盘、磁光盘、闪存等。上面说明的计算机程序可以不使用记录介质,例如经由网络来分发。
在上面说明的车辆控制系统7000中,参考图1说明的按照本实施例的投影系统1可以应用于图28中图解所示的应用例的综合控制单元7600。例如,投影系统1的传感器单元30和控制设备50对应于综合控制单元7600的微计算机7610、成像单元7410和驾驶员状态检测单元7510。然而,本发明不限于此,并且车辆控制系统7000可以对应于图1中的控制设备50。
参考图1说明的按照本实施例的投影系统1的至少一些组件可以在用于图28中图解所示的综合控制单元7600的模块(例如,包括一个管芯的集成电路模块)中实现。或者,参考图1说明的按照本实施例的投影系统1可以由图28中图解所示的车辆控制系统7000的多个控制单元实现。
<9.结论>
通过适当地组合在按照上述本公开的第一到第六实施例的各个投影系统中公开的多个组件,可以形成各种形式。例如,可以从记载在按照上述本公开的第一到第六实施例的投影系统中的所有组件中删除一些组件。此外,可以适当地组合在按照上述本公开的第一到第六实施例的投影系统中说明的组件。
在按照本公开的第一到第六实施例的投影系统中,上述“单元”可以被替换为“装置”、“电路”等。例如,控制单元可以被替换为控制装置或控制电路。
使按照本公开的第一到第六实施例的投影系统执行的程序是通过作为可安装格式或可执行格式的文件数据记录在计算机可读记录介质,比如CD-ROM、软盘(FD)、CD-R、数字通用光盘(DVD)、USB介质或闪存中提供的。
使按照本公开的第一到第四实施例的投影系统执行的程序可以存储在连接到诸如因特网之类网络的计算机上,并通过经由网络下载来提供。
注意,在本说明书中的时序图的说明中,通过使用诸如“首先”、“之后”和“随后”之类的表述明确地指示了时序之间的处理顺序,但是实现本公开所需的处理顺序并不由这些表述唯一地确定。即,记载在本说明书中的时序图中的处理顺序可以在不矛盾的范围内变更。
注意,记载在本说明书中的效果仅仅是例子,并不受限制,可以存在其他的效果。
注意,本技术也可以具有以下配置。
(1)一种控制设备,包括:
控制单元,所述控制单元基于从检测移动体内的空间状况的传感器输入的空间状况信息,控制由设置在所述移动体内的空间中的投影设备投影到预定投影面的视频的状态。
(2)按照(1)所述的控制设备,其中
所述控制单元包括
识别单元,所述识别单元基于所述空间状况信息,识别所述移动体内的乘员的人数和就座位置;以及
生成单元,所述生成单元基于所述人数和就座位置,生成用于控制所述投影设备投影的所述视频的聚焦状态的控制信号。
(3)按照权利要求2所述的控制设备,还包括:
计算单元,所述计算单元针对由所述识别单元识别的每个乘员,计算由所述识别单元识别的乘员的就座位置与所述投影设备投影的所述视频的投影面之间的距离,其中
所述生成单元
基于所述人数、所述就座位置以及每个乘员的所述距离,生成所述控制信号。
(4)按照(3)所述的控制设备,其中
所述识别单元
基于所述空间状况信息,识别所述乘员的头部位置和眼睛位置中的至少一个,并且
所述计算单元
基于所述乘员的头部位置和眼睛位置中的至少一个以及所述就座位置,计算每个乘员的所述距离。
(5)按照(2)所述的控制设备,其中
所述生成单元
基于所述人数、所述就座位置以及由检测在所述移动体内生成的摇晃的加速度传感器获取的加速度信息,生成所述控制信号。
(6)按照(2)至(5)任意之一所述的控制设备,其中
所述传感器是以下中的任意一个或多个
通过对所述移动体的内部成像来生成彩色图像数据的相机,
通过对所述移动体的内部成像来生成具有视差的视差图像数据的立体相机,以及
通过对所述移动体的内部成像来生成能够针对每个像素检测距离信息的距离图像数据的TOF相机,并且
所述空间状况信息是以下中的任意一个或多个:
所述彩色图像数据、所述视差图像数据以及所述距离图像数据。
(7)按照(6)所述的控制设备,其中
所述识别单元
基于所述图像数据、所述视差图像数据以及所述距离图像数据中的任意一个或多个,识别所述人数和所述就座位置。
(8)按照(2)至(7)任意之一所述的控制设备,其中
所述生成单元
基于作为所述投影设备投影的所述视频的内容数据,生成所述控制信号。
(9)按照权利要求8所述的控制设备,还包括:
指定单元,所述指定单元基于所述内容数据,指定在所述视频中要强调的强调位置,其中
所述生成单元
基于所述强调位置,生成所述控制信号。
(10)按照(2)至(9)任意之一所述的控制设备,其中
所述传感器是检测所述移动体内的所述乘员的动作的交互设备,
所述空间状况信息是所述乘员的动作,并且
所述生成单元
基于所述乘员的动作生成所述控制信号。
(11)按照(2)至(10)任意之一所述的控制设备,其中
所述控制信号是用于控制所述投影设备的聚焦位置的信号。
(12)按照(2)至(10)任意之一所述的控制设备,其中
所述控制信号是用于调整所述投影设备投影的所述视频的亮度的信号。
(13)按照(1)至(12)任意之一所述的控制设备,其中
所述投影面是自由曲面。
(14)一种投影系统,包括:
投影设备,所述投影设备将视频投影到移动体内的预定投影面;
传感器,所述传感器检测所述移动体内的空间状况;以及
控制设备,所述控制设备基于与由所述传感器检测的空间状况有关的空间状况信息来控制所述视频的状态。
(15)按照(14)所述的投影系统,其中
所述投影设备包括
将所述视频投影到所述预定投影面的投影透镜;以及
通过沿光路移动所述投影透镜来调整所述视频的聚焦位置的驱动单元,并且
所述控制设备包括
识别单元,所述识别单元基于所述空间状况信息来识别所述移动体内的乘员的人数和就座位置;以及
生成单元,所述生成单元基于所述人数和就座位置来生成用于控制由所述投影设备投影的所述视频的聚焦状态的控制信号。
(16)按照(15)所述的投影系统,其中
所述控制设备还包括
计算单元,所述计算单元针对由所述识别单元识别的每个乘员,计算由所述识别单元识别的乘员的所述就座位置与由所述投影设备投影的所述视频的投影面之间的距离,并且
所述生成单元
基于所述人数、所述就座位置以及每个乘员的所述距离来生成所述控制信号。
(17)按照(16)所述的投影系统,其中
所述识别单元
基于所述空间状况信息来识别所述乘员的头部位置和眼睛位置中的至少一个,并且
所述计算单元
基于所述乘员的头部位置和眼睛位置中的至少一个以及所述就座位置,计算每个乘员的所述距离。
(18)按照(15)所述的投影系统,其中
所述生成单元
基于所述人数、所述就座位置以及由检测在所述移动体内生成的摇晃的加速度传感器获取的加速度信息,生成所述控制信号。
(19)一种控制设置在移动体内的空间中的投影设备的控制方法,所述控制方法包括:
基于从检测所述移动体内的空间状况的传感器输入的空间状况信息,控制所述投影设备投影到预定投影面的视频的状态。
(20)一种用于使控制设置在移动体内的空间中的投影设备的控制设备执行以下操作的程序:
基于从检测所述移动体内的空间状况的传感器输入的空间状况信息,控制所述投影设备投影到预定投影面的视频的状态。
附图标记列表
1,1A,1B,1C,1D,1E投影系统
10移动体
20投影仪
24投影透镜
26光学设备驱动单元
30,30A,30B,30D,30E传感器单元
31相机
32加速度传感器
33立体相机
34TOF相机
35交互设备
36输入设备
40内容再现设备
50,50A,50B,50C,50D,50E控制设备
51输入单元
52,52A,52B,52C,52D,52E控制单元
53输出单元
521识别单元
522,522存储器
523,523A,523B计算单元
524,524A,524B,524C,524D,524E生成单元
525摇晃计算单元
526指定单元
527手势确定单元
5231第一距离计算单元
5232第二距离计算单元

Claims (20)

1.一种控制设备,包括:
控制单元,所述控制单元基于从检测移动体内的空间状况的传感器输入的空间状况信息,控制由设置在所述移动体内的空间中的投影设备投影到预定投影面的视频的状态。
2.按照权利要求1所述的控制设备,其中
所述控制单元包括
识别单元,所述识别单元基于所述空间状况信息,识别所述移动体内的乘员的人数和就座位置;以及
生成单元,所述生成单元基于所述人数和就座位置,生成用于控制所述投影设备投影的所述视频的聚焦状态的控制信号。
3.按照权利要求2所述的控制设备,还包括:
计算单元,所述计算单元针对由所述识别单元识别的每个乘员,计算由所述识别单元识别的乘员的就座位置与所述投影设备投影的所述视频的投影面之间的距离,其中
所述生成单元
基于所述人数、所述就座位置以及每个乘员的所述距离,生成所述控制信号。
4.按照权利要求3所述的控制设备,其中
所述识别单元
基于所述空间状况信息,识别所述乘员的头部位置和眼睛位置中的至少一个,并且
所述计算单元
基于所述乘员的头部位置和眼睛位置中的至少一个以及所述就座位置,计算每个乘员的所述距离。
5.按照权利要求2所述的控制设备,其中
所述生成单元
基于所述人数、所述就座位置以及由检测在所述移动体内生成的摇晃的加速度传感器获取的加速度信息,生成所述控制信号。
6.按照权利要求2所述的控制设备,其中
所述传感器是以下中的任意一个或多个
通过对所述移动体的内部成像来生成彩色图像数据的相机,
通过对所述移动体的内部成像来生成具有视差的视差图像数据的立体相机,以及
通过对所述移动体的内部成像来生成能够针对每个像素检测距离信息的距离图像数据的TOF相机,并且
所述空间状况信息是以下中的任意一个或多个:
所述彩色图像数据、所述视差图像数据以及所述距离图像数据。
7.按照权利要求6所述的控制设备,其中
所述识别单元
基于所述图像数据、所述视差图像数据以及所述距离图像数据中的任意一个或多个,识别所述人数和所述就座位置。
8.按照权利要求2所述的控制设备,其中
所述生成单元
基于作为所述投影设备投影的所述视频的内容数据,生成所述控制信号。
9.按照权利要求8所述的控制设备,还包括:
指定单元,所述指定单元基于所述内容数据,指定在所述视频中要强调的强调位置,其中
所述生成单元
基于所述强调位置,生成所述控制信号。
10.按照权利要求2所述的控制设备,其中
所述传感器是检测所述移动体内的所述乘员的动作的交互设备,
所述空间状况信息是所述乘员的动作,并且
所述生成单元
基于所述乘员的动作生成所述控制信号。
11.按照权利要求2所述的控制设备,其中
所述控制信号是用于控制所述投影设备的聚焦位置的信号。
12.按照权利要求2所述的控制设备,其中
所述控制信号是用于调整所述投影设备投影的所述视频的亮度的信号。
13.按照权利要求1所述的控制设备,其中
所述投影面是自由曲面。
14.一种投影系统,包括:
投影设备,所述投影设备将视频投影到移动体内的预定投影面;
传感器,所述传感器检测所述移动体内的空间状况;以及
控制设备,所述控制设备基于与由所述传感器检测的空间状况有关的空间状况信息来控制所述视频的状态。
15.按照权利要求14所述的投影系统,其中
所述投影设备包括
将所述视频投影到所述预定投影面的投影透镜;以及
通过沿光路移动所述投影透镜来调整所述视频的聚焦位置的驱动单元,并且
所述控制设备包括
识别单元,所述识别单元基于所述空间状况信息来识别所述移动体内的乘员的人数和就座位置;以及
生成单元,所述生成单元基于所述人数和就座位置来生成用于控制由所述投影设备投影的所述视频的聚焦状态的控制信号。
16.按照权利要求15所述的投影系统,其中
所述控制设备还包括
计算单元,所述计算单元针对由所述识别单元识别的每个乘员,计算由所述识别单元识别的乘员的所述就座位置与由所述投影设备投影的所述视频的投影面之间的距离,并且
所述生成单元
基于所述人数、所述就座位置以及每个乘员的所述距离来生成所述控制信号。
17.按照权利要求16所述的投影系统,其中
所述识别单元
基于所述空间状况信息来识别所述乘员的头部位置和眼睛位置中的至少一个,并且
所述计算单元
基于所述乘员的头部位置和眼睛位置中的至少一个以及所述就座位置,计算每个乘员的所述距离。
18.按照权利要求15所述的投影系统,其中
所述生成单元
基于所述人数、所述就座位置以及由检测在所述移动体内生成的摇晃的加速度传感器获取的加速度信息,生成所述控制信号。
19.一种控制设置在移动体内的空间中的投影设备的控制方法,所述控制方法包括:
基于从检测所述移动体内的空间状况的传感器输入的空间状况信息,控制所述投影设备投影到预定投影面的视频的状态。
20.一种用于使控制设置在移动体内的空间中的投影设备的控制设备执行以下操作的程序:
基于从检测所述移动体内的空间状况的传感器输入的空间状况信息,控制所述投影设备投影到预定投影面的视频的状态。
CN202180042102.8A 2020-06-19 2021-06-16 控制设备、投影系统、控制方法和程序 Pending CN115868155A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-105856 2020-06-19
JP2020105856 2020-06-19
PCT/JP2021/022802 WO2021256483A1 (ja) 2020-06-19 2021-06-16 制御装置、投影システム、制御方法及びプログラム

Publications (1)

Publication Number Publication Date
CN115868155A true CN115868155A (zh) 2023-03-28

Family

ID=79268077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180042102.8A Pending CN115868155A (zh) 2020-06-19 2021-06-16 控制设备、投影系统、控制方法和程序

Country Status (6)

Country Link
US (1) US20230186651A1 (zh)
EP (1) EP4171021A4 (zh)
JP (1) JPWO2021256483A1 (zh)
KR (1) KR20230028248A (zh)
CN (1) CN115868155A (zh)
WO (1) WO2021256483A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084951A1 (ja) * 2022-10-19 2024-04-25 ソニーグループ株式会社 プロジェクションシステム、制御装置、および制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005088864A (ja) 2003-09-12 2005-04-07 Fumiyoshi Nagano 平面鏡及び曲面鏡を備えるハイブリッド型ルームミラー
JP4955309B2 (ja) 2006-06-01 2012-06-20 Necディスプレイソリューションズ株式会社 オートフォーカス調整機能を有するプロジェクタ装置と自動焦点調整方法
JP6083338B2 (ja) * 2013-07-08 2017-02-22 株式会社デンソー 投射型表示装置
US9360668B2 (en) * 2014-08-07 2016-06-07 Continental Automotive Systems, Inc. Dynamically calibrated head-up display
US10242457B1 (en) * 2017-03-20 2019-03-26 Zoox, Inc. Augmented reality passenger experience
DE112018004847B4 (de) * 2017-08-31 2024-02-08 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt
DE112018006464T5 (de) * 2017-12-19 2020-08-27 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm, anzeigesystem und mobiles objekt
EP3770898A4 (en) * 2018-03-19 2021-05-26 Sony Corporation IMAGE DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOBILE BODY

Also Published As

Publication number Publication date
US20230186651A1 (en) 2023-06-15
JPWO2021256483A1 (zh) 2021-12-23
EP4171021A1 (en) 2023-04-26
EP4171021A4 (en) 2023-11-22
WO2021256483A1 (ja) 2021-12-23
KR20230028248A (ko) 2023-02-28

Similar Documents

Publication Publication Date Title
US10957029B2 (en) Image processing device and image processing method
US10970877B2 (en) Image processing apparatus, image processing method, and program
US10587863B2 (en) Image processing apparatus, image processing method, and program
US11272115B2 (en) Control apparatus for controlling multiple camera, and associated control method
US20240075866A1 (en) Information processing apparatus, information processing method, photographing apparatus, lighting apparatus, and mobile body
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
WO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
US11585898B2 (en) Signal processing device, signal processing method, and program
US11689797B2 (en) Camera, method, non-transitory computer-readable medium, and system
WO2021256483A1 (ja) 制御装置、投影システム、制御方法及びプログラム
WO2020085101A1 (ja) 画像処理装置と画像処理方法およびプログラム
US20210295563A1 (en) Image processing apparatus, image processing method, and program
WO2020255589A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11438517B2 (en) Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
US20230013424A1 (en) Information processing apparatus, information processing method, program, imaging apparatus, and imaging system
WO2020195969A1 (ja) 情報処理装置、情報処理方法及びプログラム
US10791287B2 (en) Imaging control apparatus and method, and vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination