CN103888719A - 显示控制系统和记录介质 - Google Patents
显示控制系统和记录介质 Download PDFInfo
- Publication number
- CN103888719A CN103888719A CN201310684696.XA CN201310684696A CN103888719A CN 103888719 A CN103888719 A CN 103888719A CN 201310684696 A CN201310684696 A CN 201310684696A CN 103888719 A CN103888719 A CN 103888719A
- Authority
- CN
- China
- Prior art keywords
- subject
- display
- navigational
- image
- control program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Controls And Circuits For Display Device (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
提供了一种显示控制系统,包括:多个显示单元;成像单元,配置为捕获被摄体;预测器,配置为根据成像单元捕获的捕获图像预测被摄体的动作;引导图像生成器,配置为根据来自所述预测器的预测结果,生成引导被摄体的引导图像;以及显示控制器,配置为基于来自所述预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。
Description
相关申请的交叉引用
本申请要求2012年12月21日提交的日本优先权专利申请JP2012-279520的权益,在此通过引用并入其全部内容。
技术领域
本公开涉及显示控制系统和记录介质。
背景技术
在诸如娱乐中心、火车站、医院和城市办公室的设施内,遍及各处提供指示到达目标的路径的地图板、引导显示等。然而,在更大规模的设施的情况下,引导显示变得复杂,并且例如通过对检查用户的当前位置增加负担或在用户到达目标之前迂回多次,可能使得用户不方便。为此,正在开发为个体提供适当的、个性化的引导显示的技术。
例如,日本未审专利申请公开No.2004-110377公开了飞机场设施中的技术,其通过顾客拥有的识别标签确定顾客,并且靠近该确定的顾客的位置,基于预先获取的顾客信息或与离港航班有关的信息提供引导显示。
此外,日本未审专利申请公开No.2000-149150公开了医院中的技术,其通过患者拥有的识别卡、声波纹、指纹、虹膜等确定患者,并且给确定的患者提供到达由检查室中的接待人员或医生预先输入的目的地的指引显示。
发明内容
然而,日本未审专利申请公开No.2004-110377和日本未审专利申请公开No.2000-149150中公开的上述技术,都基于预先已经输入和存储的信息提供引导/指引显示,并且不提供取决于被摄体的当前状态的交互显示。
相应地,本公开提出一种新的和改进的显示控制系统和记录介质,其能够预测被摄体的动作,并且根据预测结果提供引导显示。
根据本公开的实施例,提供了一种显示控制系统,包括:多个显示单元;成像单元,配置为捕获被摄体;预测器,配置为根据成像单元捕获的捕获图像预测被摄体的动作;引导图像生成器,配置为根据来自所述预测器的预测结果,生成引导被摄体的引导图像;以及显示控制器,配置为基于来自所述预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。
根据本公开的实施例,提供了一种非瞬时计算机可读记录介质,在其上面记录程序,所述程序使得计算机执行:捕获被摄体;根据捕获图像预测被摄体的动作;基于预测结果从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元;根据预测结果生成引导被摄体的引导图像;以及控制选择的显示单元在与被摄体对应的位置处显示引导图像。
根据如上所述的本公开的实施例,可以预测被摄体的动作,并且根据预测结果提供引导显示。
附图说明
图1是图示根据本公开实施例的显示控制系统的概况的说明图;
图2是图示根据第一实施例的显示控制系统的配置的方块图;
图3是图示根据第一实施例的显示控制系统的操作的流程图;
图4是图示根据第一实施例的显示控制系统的应用示例的说明图;
图5是说明根据第一实施例的显示控制系统根据被摄体的反应更新引导图像的示例的说明图;
图6是说明根据第一实施例的显示控制系统根据被摄体的反应更新引导图像的示例的说明图;
图7是说明根据第一实施例的显示控制系统根据被摄体的反应更新引导图像的示例的说明图;
图8是说明根据修改1的显示控制系统的操作的说明图;
图9是说明根据修改2的显示控制系统的操作的说明图;
图10是图示根据修改3的显示控制系统的操作的流程图;
图11是图示根据第二实施例的显示控制系统的操作的流程图;
图12是图示根据第二实施例的显示控制系统的应用示例的说明图;
图13是图示根据第二实施例的显示控制系统的应用示例的说明图;以及
图14是图示根据第二实施例的显示控制系统的应用示例的说明图。
具体实施方式
下文中,将参考附图详细描述本公开的优选实施例。要注意,在本说明书和附图中,具有基本相同功能和结构的结构元件用相同参考标号表示,并且省略这些结构元件的重复说明。
以下,将按照以下顺序提供描述。
1.显示控制系统的概况
2.实施例
2-1. 第一实施例
2-1-1. 配置
2-1-2. 操作过程
2-1-3. 修改1
2-1-4. 修改2
2-1-5. 修改3
2-2. 第二实施例
2-2-1. 操作过程
2-2-2. 应用示例1
2-2-3. 应用示例2
2-2-4. 其它应用示例
3.结论
<1.显示控制系统的概况>
本公开可以以各种实施例进行,它们的示例从部分(2-1.第一实施例)到部分(2-2.第二实施例)详细描述。此外,根据每个实施例的显示控制系统配备有:
A.多个显示单元(显示设备2);
B.成像单元(相机1),其捕获被摄体;
C.预测器(预测器42),其根据成像单元捕获的捕获图像预测被摄体的动作;
D.引导图像生成器(引导图像生成器43),其根据来自预测器的预测结果生成引导被摄体的引导图像;以及
E.显示控制器(显示控制器44),其基于来自预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。
如上所述,根据本公开实施例的显示控制系统基于被摄体的当前状态预测将来动作,并且在根据预测结果从多个显示单元中选择的显示单元上显示根据预测结果生成的引导图像。
具体地,首先,预测器根据成像单元捕获的捕获图像预测被摄体的将来动作。例如,预测器根据捕获图像捕获因素(如被摄体正面向的方向、在转角或转向处的路径选择、行走速度、姿态或视线移动),通过估计诸如被摄体的目标、被摄体正在搜索的东西、或半途中活动取消的事实预测将来动作。
接着,引导图像生成器根据来自预测器的预测结果生成引导被摄体的引导图像。例如,引导图像生成器生成指示到达目标的路径、被摄体正在搜索的东西的位置、提醒被摄体活动取消的信息等的引导图像。以此方式,根据本公开实施例的显示控制系统能够生成取决于被摄体的当前状态的交互引导图像。
随后,显示控制器基于来自预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。例如,显示控制器选择放置在被摄体正面对的方向上并且能够靠近被摄体的位置显示图像的显示单元,并且控制选择的显示单元在取决于被摄体的脸部的朝向或被摄体的视点的高度的位置处显示引导图像。以此方式,根据本公开实施例的显示控制系统能够在取决于被摄体的当前状态的适当位置处,或者换句话说,在被摄体容易可见的位置处显示引导图像。
注意,上述显示单元和成像单元可以安装在室内,如房间、房屋或建筑物内,并且也可以安装在室外,如街道旁、建筑物的墙壁上或路灯上。
现在,将参考图1详细描述根据如上所述的本公开实施例的显示控制系统的引导图像显示操作。作为示例,图1图示根据本公开实施例的显示控制系统应用于医院的示例。
图1是图示根据本公开实施例的显示控制系统的概况的说明图。如图1所示,相机1A、1B和1C以及显示设备2A、2B和2C沿着医院内部的走廊安装。注意,以下相机1A、1B和1C在不需要具体区分时将统称为相机1。类似地,显示设备2A、2B和2C在不需要具体区分时将统称为显示设备2。此外,如图1所示,显示设备2例如通过投影仪实现。
此外,相机1和显示设备2经由网络连接到服务器(未示出),其中服务器包括上述预测器、引导图像生成器和显示控制器。可替代地,上述预测器、引导图像生成器和显示控制器还可以包括在相机1和显示设备2的至少一个中。
以下,在图1所示的走廊中,相机1A捕获在X方向上行走的被摄体。随后,在被摄体继续行走并接近交叉点的情况下,预测器基于捕获图像预测被摄体将采取在X方向上直行前进或转向Y方向的动作。接着,基于指示被摄体将继续行走的预测结果,显示控制器从多个显示设备2A到2C中选择显示设备2B,该显示设备2B能够在被摄体的前进方向上并处于被摄体可见距离处的显示表面3上显示图像。此外,根据指示被摄体可能采取在X方向上直行前进或转向Y方向的动作的预测结果,引导图像生成器生成引导图像,该引导图像包括X方向上的箭头和定位在X方向上的检查室的显示以及Y方向上的箭头和定位在Y方向上的休息室的显示。然后,如图1所示,显示控制器控制显示设备2B在交叉点处的显示表面3上显示引导图像9,该交叉点被当做是被摄体容易可见的位置。
以此方式,根据本公开实施例的显示控制系统能够预测被摄体的动作,并根据预测结果提供引导显示。
由此,上面总结了根据本公开实施例的显示控制系统。接着,将使用几个实施例具体描述根据本公开实施例的显示控制系统。
<2.实施例>
<2-1.第一实施例>
[2-1-1.配置]
首先,将参考图2描述根据第一实施例的显示控制系统的配置。图2是图示根据第一实施例的显示控制系统的配置的方块图。如图2所示,该显示控制系统包括相机1A到1C、显示设备2A到2C和服务器4。注意,尽管单个相机1可以包括在显示控制系统中,但是本说明书描述包括多个相机1的情况作为示例。以下,将详细描述显示控制系统的每个结构元件。
(相机1)
相机1包括图像传感器、包括成像镜头的成像光学器件和捕获图像信号处理器。相机1以数字信号形式输出捕获图像的数据。注意,图像传感器例如由电荷耦合器件(CCD)成像器或互补金属氧化物半导体(CMOS)成像器实现。此外,根据本实施例的相机1捕获被摄体,并且将捕获图像发送给服务器4。注意,相机1在安装前还可以被校准以便估计设备特定属性。另外,还可以利用生产商使用的自动校准设置等。此外,相机1可以与下面描述的显示设备2集成形成。
(显示设备2)
显示设备2基于服务器4的控制显示图像数据(静态图像/运动图像)。显示设备2例如由投影仪实现,如图1所示。另外,显示设备2例如可以由液晶显示器(LCD)、有机发光二极管(OLED)显示器等实现。此外,根据本实施例的显示设备2显示由后面讨论的引导图像生成器43生成的引导图像。注意,显示设备2还可以在安装前被校准以便估计设备特定属性。
(服务器4)
服务器4基于相机1捕获的捕获图像预测被摄体的将来动作,并且根据预测结果使得显示设备2显示生成的引导图像。此外,如图2所示,服务器4起动作历史信息获取器41、预测器42、引导图像生成器43、显示控制器44和学习单元45的作用。
-动作历史信息获取器41
动作历史信息获取器41基于相机1获取的获取图像获取被摄体的动作历史信息。动作历史信息指指示被摄体在当前和在过去在什么位置如何动作的信息。动作历史信息指示的被摄体的动作例如可以是行走或停止、诸如抬手的各种姿势、在走廊交叉点的路径的选择等。动作历史信息获取器41基于捕获图像获取指示被摄体如何动作的信息,并且还参考稍后讨论的存储器以获取指示捕获该捕获图像的相机1的位置和高度的位置信息,从而还获取指示进行该动作的位置的信息。
在该点,动作历史信息获取器41还可以用指示当前动作的信息补充指示过去动作的信息。例如,动作历史信息获取器41还可以获取从当前的捕获图像获得的指示被摄体的动作的信息,该信息已经增加到动作历史信息获取器41自身在过去获得的指示被摄体动作的信息中,作为动作历史信息。另外,动作历史信息获取器41还可以获取从当前的捕获图像获得的指示被摄体的动作的信息,该信息已经增加到经由网络等从外部接收的指示被摄体动作的信息中,作为动作历史信息。
此外,动作历史信息获取器41能够通过对捕获图像中描绘的脸部应用脸部识别来标识被摄体,并且累积指示当前动作的信息,该信息增加到对相同人在过去获取的动作历史信息中。除了脸部识别处理,被摄体的标识还可以利用标识设备(如被摄体携带的射频标识(RFID)标签)进行。
此外,动作历史信息获取器41还可以获取被摄体对显示设备2显示的引导图像的反应作为一种类型的动作历史信息。具体地,动作历史信息获取器41可以基于相机1捕获的捕获图像识别被摄体对显示设备2显示的引导图像的反应,并且基于识别的反应获取动作历史信息。
动作历史信息获取器41将获取的动作历史信息输出到预测器42和学习单元45。
-预测器42
预测器42根据相机1捕获的捕获图像预测被摄体的动作。更具体地,预测器42基于从通过动作历史信息获取器41从捕获图像获取的动作历史信息,预测被摄体的动作。另外,预测器42还可以基于稍后讨论的学习单元45从通过动作历史信息获取器41从捕获图像获取的动作历史信息学习的动作模式,预测被摄体的动作。预测器42将预测结果输出到引导图像生成器43和显示控制器44。
-引导图像生成器43
引导图像生成器43根据来自预测器42的预测结果生成引导被摄体的引导图像。具体地,引导图像生成器43生成包括到达由来自预测器42的预测结果指示的被摄体的目标的引导显示的引导图像。例如,引导图像生成器43基于指示被摄体将接近走廊交叉点的预测结果,生成指示交叉点走廊的各个目的地的引导图像。另外,引导图像生成器43根据来自预测器42的基于动作模式的预测结果,生成包括为被摄体建议动作的显示的引导图像。引导图像生成器43还可以根据诸如被摄体的高度、性别或种族的物理特性生成引导图像。引导图像生成器43将生成的引导图像输出到显示控制器44。
-显示控制器44
显示控制器44首先基于来自预测器42的预定结果,从多个显示设备2中选择能够在对应于被摄体的位置处显示图像的显示设备2。例如,显示控制器44基于被摄体将继续行走的预测动作,选择能够在预测行走路径的地板表面上显示图像的显示设备2。另外,显示控制器44基于被摄体将继续行走并接近走廊的终点的预测结果,选择能够在走廊终点的墙壁表面上显示图像的显示设备2。在这点,显示控制器44还可以基于被摄体将停止行走并站着不动的预测结果,选择能够靠近被摄体的位置(如被摄体的脚下或被摄体前方的墙表面上)显示图像的显示设备2。此外,显示控制器44还可以基于指示被摄体正面对的方向的预测结果,选择能够在被摄体面对的方向上显示图像的显示设备2。注意,在选择显示设备2的情况下,显示控制器44可以通过参考稍后描述的存储器中存储的、指示多个显示设备2的安装位置和高度的位置信息,选择能够在对应于被摄体的位置处显示图像的显示设备2。
随后,显示控制器44控制选择的显示设备2在对应于被摄体的位置处显示从引导图像生成器43输出的引导图像。在这点,显示控制器44还可以控制选择的显示设备2在与被摄体的行走速度成比例的距离处的位置显示引导图像。通常,人的行走速度越快,他或她向前看的越远,因此,例如显示控制器44可以控制显示设备2,在远离被摄体到被摄体的行走速度快的程度的位置显示引导图像。相反,显示控制器44还可以控制显示设备2,在接近被摄体到被摄体的行走速度慢的程度的位置显示图像。另外,显示控制器44还可以根据物理特性(如被摄体的高度、性别或种族)控制显示设备2显示引导图像。
-学习单元45
学习单元45基于从动作历史信息获取器41输出的动作历史信息学习被摄体的动作模式。学习单元45然后将学习的动作模式输出到预测器42。
例如,假设动作历史信息获取器41获取具有愁容的被摄体作为动作历史信息,该被摄体正在具有投影仪的会议室内持有膝上型PC,并且该被摄体几分钟之后寻找电缆用于连接投影仪和膝上型PC。在该情况下,学习单元45学习在被摄体正在具有投影仪的会议室内持有膝上型PC并且具有愁容的情况下的“搜索电缆”的动作模式。结果,如果相机1捕获被摄体正在具有投影仪的会议室内持有膝上型PC并且具有愁容的捕获图像,则基于学习的动作模式,预测器42预测被摄体正在搜索投影仪电缆。
注意,在其它人的之前学习的动作模式类似地应用于被摄体的情况下,预测器42还可以基于其他人的动作模式预测被摄体的动作。
(补充说明)
服务器4还可以包括存储器(未示出)。如上所述,存储器存储指示多个相机1和多个显示设备2的各自安装位置和高度的位置信息。存储器还存储指示街道、建筑物、地址等之间的位置关系以及各个设施内的走廊、房间等之间的位置关系的地图信息,其用于引导图像生成器43生成包括到达目标的引导显示的引导图像。
由此,上面描述了根据本实施例的显示控制系统的配置。
[2-1-2.操作处理]
接着,将参考图3到7描述显示控制系统的操作。图3是图示根据第一实施例的显示控制系统的操作的流程图。图4是图示根据第一实施例的显示控制系统的应用示例的说明图。以下,将在图3所示的流程图之后,详细描述图4所示的应用示例中的显示控制系统的操作。
如图4所示,连接到服务器4的相机1A和1B以及显示设备2A、2B和2C沿着在X方向上在T交叉点终止的走廊放置,并且被摄体5正在X方向上行走。在该点,如图3所示,首先,在步骤S104A和S104B,相机1A和相机1B捕获在X方向上行走的被摄体5。
接着,在步骤S108,相机1A和相机1B将捕获被摄体5的捕获图像发送给服务器4。
随后,在步骤S112,动作历史信息获取器41从由相机1A和相机1B接收的捕获图像获取动作历史信息。更具体地,动作历史信息获取器41获取在X方向上行走的被摄体5的状态作为动作历史信息。
随后,在步骤S116,预测器42基于动作历史信息获取器41获取的动作历史信息,预测被摄体5的动作。更具体地,基于指示被摄体5正在X方向上行走的动作历史信息,预测器42预测被摄体5将继续在X方向上行走,并且到达T交叉点,其中Y方向上的走廊在图4中示出。
接着,在步骤S120,基于来自预测器42的预测结果,显示控制器44选择显示设备2A,其能够在对应于被摄体5的位置处显示图像。更具体地,基于指示被摄体5将继续在X方向上行走的预测结果,显示控制器44选择显示设备2A,其能够靠近被摄体5的位置显示图像,并且还在被摄体5正面对的X方向上。为此,显示控制系统能够在被摄体5容易可见的位置处显示引导图像。例如,尽管在围绕被摄体5的每个方向上提供引导显示的比较示例是可以预期的,但是根据本实施例的显示控制系统,被摄体能够看到期望的引导图像而不用四周查看。
随后,在步骤S124,基于来自预测器42的预测结果,引导图像生成器43生成目标选择图像(引导图像),其包括到达被摄体5的目标的引导显示。更具体地,基于指示被摄体5将到达T交叉点的预测结果,引导图像生成器43生成目标选择图像,其呈现在T交叉点向右转或向左转的情况下的各自目的地,并且使得被摄体5选择目标。
接着,在步骤S128,显示控制器44将引导图像生成器43生成的目标选择图像发送给选择的显示设备2A。
然后,在步骤S132,在显示控制器44的控制下,显示设备2A在显示表面3A上显示接收的目标选择图像9-1。
随后,在步骤S136A和136B,相机1A和相机1B捕获被摄体5关于显示表面3A上显示的目标选择图像9-1的选择动作(反应)。在这点,假设被摄体5选择在T交叉点向右转到达的目标。注意,稍后将详细描述在这点被摄体5的选择动作以及在步骤S164A和S164C显示的目标引导图像。
接着,在步骤S140,相机1A和相机1B将捕获被摄体5的捕获图像发送给服务器4。
随后,在步骤S144,动作历史信息获取器41从由相机1A和相机1B接收的捕获图像获取动作历史信息。更具体地,动作历史信息获取器41获取选择在T交叉点向右转到达的目标A的状态作为动作历史信息,其被增加到指示被摄体5之前(步骤S104A,S104B)在X方向上行走的信息。
随后,在步骤S148,预测器42基于动作历史信息获取器41获取的动作历史信息预测被摄体5的动作。更具体地,基于指示被摄体5选择在T交叉点向右转到达的目标的动作历史信息,预测器42预测被摄体5将继续行走并在T交叉点向右转。
接着,在步骤S152,基于来自预测器42的预测结果,显示控制器44选择显示设备2B和2C,其能够在对应于被摄体5的位置处显示图像。更具体地,基于指示被摄体5将继续在X方向上行走的预测结果,显示控制器44选择显示设备2B和2C,其能够在作为行走结果已经移动的被摄体5可见的位置处显示图像。以此方式,显示控制系统能够跟踪被摄体5的行走行为,并且切换显示引导图像的显示设备2。
随后,在步骤S156,基于来自预测器42的预测结果,引导图像生成器43生成目标引导图像(引导图像),其包括到达被摄体5的目标的引导显示。更具体地,基于指示被摄体5将在T交叉点向右转的预测结果,引导图像生成器43生成目标引导图像,其包括具有向右转的指令的显示以及向右转到达的目标A的显示。
接着,在步骤S160,显示控制器44将引导图像生成器43生成的目标引导图像发送到选择的显示设备2B和2C。
然后,在步骤S164B,显示设备2B在显示表面3B上显示接收的目标引导图像9-2。此外,在步骤S164C,显示设备2C在显示表面3C上显示接收的目标引导图像9-3。
以此方式,显示控制系统不仅能够在地板上的显示表面3B上,而且能够在墙上的显示表面3C上显示目标引导图像。为此,被摄体5能够注意到目标引导图像,并且接收到达目标A的引导,而不管他或她正在看地板或向前看。
如上所述,显示控制系统基于被摄体5针对步骤S132中显示的目标选择图像的选择动作,变化要在步骤S164中显示的目标引导图像。作为示例,将参考图5到7详细描述根据这样的显示控制系统的、根据被摄体5的选择动作改变引导图像。
图5到7是说明根据第一实施例的显示控制系统根据被摄体的反应更新引导图像的示例的说明图。
如图5所示,在被摄体5前方的显示表面3A上显示目标选择图像9-11,其包括向右转箭头和向右转到达的目标A的显示以及向左转箭头和向左转到达的目标B的显示。在这点,作为选择动作,被摄体5踏上向右转箭头或向左转箭头。例如,如果被摄体5踏上向右转箭头,则显示表面3A上的显示从目标选择图像9-11切换到目标引导图像9-12,并且显示到达目标A的引导信息。以此方式,显示控制系统能够根据被摄体5的选择动作,使得只包括对应于被摄体5的信息的引导图像被显示,同时隐藏不相关显示。为此,被摄体5能够接收个性化引导,并且不接收复杂引导,如到达各个目标的各种路径的列表。
作为另一示例,如图6所示,在被摄体5前方的显示表面3A上显示目标选择图像9-21,其包括向右转箭头和向右转到达的目标A和目标C的显示、以及向左转箭头和向左转到达的目标B的显示。如果被摄体5踏上作为选择动作的向右转箭头,则显示表面3A上的显示从目标选择图像9-21切换到另一目标选择图像9-22。目标选择图像9-22包括短向右转箭头和向右转之后短距离的目标A的显示、以及长向右转箭头和向右转之后长距离的目标C的显示。在这点,如果被摄体5踏上长向右转箭头,则显示表面3A上的显示从目标选择图像9-22切换到目标引导图像9-23,并且显示到达目标C的引导信息。以此方式,显示控制系统能够逐渐地缩窄到被摄体5的目标。
作为另一示例,如图7所示,显示控制系统能够给正在沿着错误路径前进的被摄体5提供警告显示。例如,在被摄体5选择目标D但是然后在相反方向前进的情况下,显示控制系统生成警告图像9-31以通过显示设备2C显示在显示表面3C上,如图7所示。在这点,为了强调显示,引导图像生成器43可以设置警告显示的字体为粗体、红色等,并且显示控制器44还可以使得警告图像9-31闪烁。此外,服务器4还可以控制网络连接的扬声器6A和扬声器6B发出警告声音。
(补充说明)
除此以外,被摄体5选择目标的方法可以包括姿势、语音指令、通知接待人员等。被摄体5做出姿势或给出语音指令作为针对显示的目标选择图像的选择动作。此外,在被摄体5将目标通知给接待人员的情况下,接待人员将被摄体5的目标输入显示控制系统,由此显示控制系统根据被摄体5的目标显示目标引导图像。
此外,在被摄体5沿着错误路径前进的情况下,尽管在上面讨论的示例中显示警告图像并提供向后转的引导,引导图像生成器43还可以重新生成到达目标的引导图像,并且显示控制器44可以用重新生成的引导图像更新显示。
此外,在选择错误目标的情况下,被摄体5可以用诸如摇头或摇手的姿态或通过给出语音指令来取消他或她自己的选择,并且使得显示控制系统再次显示目标选择图像。在这点,基于描绘来自被摄体5的取消指令的捕获图像,预测器42预测被摄体5将重新选择目标,并且显示控制器44使得引导图像生成器43重新生成的目标选择图像被显示。此外,被摄体5用来取消他或她自己的选择并使得目标选择图像再次显示的方法,可以包括脱离目标引导图像指示的引导的行为。例如,在图5所示的目标引导图像9-12的情况下,假设直行前进同时站在箭头上指示目标正确,被摄体5还可以通过前进而不站在箭头上,使得显示控制系统再次显示目标选择图像。
因此,上面描述了根据第一实施例的显示控制系统的操作处理。
[2-1-3.修改1]
接着,将描述第一实施例的修改。根据本修改的显示控制系统根据被摄体的物理特性生成和显示引导图像。更具体地,首先,引导图像生成器43根据由相机1捕获的捕获结果识别的被摄体的物理特性生成引导图像。随后,显示控制器44控制选择的显示单元在对应于被摄体的物理特性的位置处显示引导图像。以下,将参考图8描述根据本修改的显示控制系统的操作。
图8是说明根据修改1的显示控制系统的操作的说明图。如图8所示,身高高的被摄体5A和身高矮的被摄体5B在X方向上沿着走廊正在行走。
以下,在观看地板上显示的信息的情况下,通常,因为身高高的人具有较高的视点,所以较大的显示容易看见,然而,对于身高矮的人情况相反。为此,引导图像生成器43可以与被摄体5的身高的物理特性成比例地生成大引导图像。具体地,如图8所示,因为被摄体5A身高高,所以引导图像生成器43生成大尺寸的目标选择图像9-41,它通过显示设备2A显示在显示表面3A上。另一方面,因为被摄体5B身高矮,所以引导图像生成器43生成小尺寸的目标引导图像9-42,它通过显示设备2B显示在显示表面3B上。
此外,在观看地板上显示的信息的情况下,通常,因为身高高的人具有较高的视点,显示在远离该人正在站立的地方的位置处的信息容易看见,然而,对于身高矮的人情况相反。为此,显示控制器44还可以控制选择的显示单元在与被摄体5的身高的物理特性成比例的距离处的位置显示引导图像。具体地,如图8所示,因为被摄体5A身高高,所以显示控制器44控制显示设备2A在远离被摄体5A的位置处在显示表面3A上显示目标选择图像9-41。另一方面,因为被摄体5B身高矮,所以显示控制器44控制显示设备2B在靠近被摄体5A的位置处在显示表面3B上显示目标选择图像9-42。
此外,在观看墙上显示的信息的情况下,通常,因为身高高的人具有较高的视点,所以在高位置处的显示容易看见,然而,对于身高矮的人情况相反。为此,显示控制器44还可以控制选择的显示单元在与被摄体5的身高的物理特性成比例的较高位置处显示引导图像。具体地,如图8所示,显示控制器44控制显示设备2C在显示表面3C内在低位置处显示目标引导图像9-43,以匹配身高矮的被摄体5B的视点的位置。
以此方式,根据本修改的显示控制系统能够根据被摄体的物理特性在容易可见的位置处显示容易可见的引导图像。
(补充说明)
显示控制器44还控制显示设备2在与被摄体的行走速度成比例的距离处的位置显示引导图像。另外,引导图像生成器43和显示控制器44还可以根据外部可区分因素(如被摄体的性别、种族或年龄)操作。例如,在预测器42预测被摄体将错误进入异性的休息室的情况下,显示设备2可以提供警告显示。
[2-1-4.修改2]
将描述根据第一实施例的另一修改。在多个人在相同地方的情况下,根据本修改的显示控制系统提供显示,使得对于每个人的引导图像与其他人不同以便观看。更具体地,在靠近被摄体存在另一个人的情况下,显示控制器44控制选择的显示单元为被摄体显示引导图像,与为其它人显示的另一引导图像可区分。以下,将参考图9描述根据本修改的显示控制系统。
图9是说明根据修改2的显示控制系统的操作的说明图。如图9所示,被摄体5C和5D正在X方向上沿着走廊行走,同时被摄体5E正在Y方向上沿着走廊行走。首先,因为在被摄体5C的附近不存在其它人,所以显示控制器44在显示表面3A上显示目标选择图像9-51,而不进行特殊处理。另一方面,因为被摄体5D和5E正走向相同点,所以显示控制器44可区分地在显示表面3B上为被摄体5D显示目标引导图像9-52和为被摄体5E显示目标引导图像9-53。
更具体地,如图9所示,显示控制器44在被摄体5D脚下为被摄体5D显示目标引导图像9-52,并且在被摄体5E的脚下为被摄体5E显示目标引导图像9-53。此外,如图9所示,引导图像生成器43还可以以相同大小生成目标引导图像9-52和目标引导图像9-53,以便不进入相互的视场中。此外,显示控制器44可以控制显示设备2C,不在多个人可能看到的墙上的显示表面3C上显示任何引导图像。
另外,在多个被摄体5正在按行行走的情况下,例如,显示控制器44还可以为在前方行走的被摄体5的后面行走的被摄体5显示引导图像。此外,显示控制器44可以为在前方行走的被摄体5的后面的后面行走的被摄体5显示引导图像。
以此方式,在被摄体附近存在另一个人的情况下,根据本修改的显示控制系统为被摄体显示引导图像,可以与为其它人显示的另一引导图像区分。结果,即使在多个人在相同地方的情况下,被摄体也能够接收引导图像的显示,而不与其它人的引导图像混淆。
[2-1-5.修改3]
将描述第一实施例的另一修改。在根据本修改的显示控制系统中,每个相机1包括第一实施例中服务器4的各自配置,并且进行双向通信和控制。在本修改中,放置在最靠近被摄体位置处的相机1被用来为该被摄体操作为第一实施例的服务器4。
更具体地,相机1比较与其它相机1的距离,并且为在最近距离的被摄体进行动作历史信息获取、预测、引导图像生成和引导图像显示。在这点,在被摄体移动并且另一相机1变为最接近被摄体的情况下,直到该点已经操作为服务器4的相机1将该被摄体的获取的动作历史信息发送给另一相机1。随后,另一相机1使用接收的动作历史信息以接管操作为该被摄体的服务器4。注意,这假设每个相机1至少存储关于放置在附近的相机1和显示设备2的位置信息,并且基于位置信息确定哪个相机1将接管。
以下,将参考图10描述图4所示的应用示例中的根据本修改的显示控制系统的操作。
图10是图示根据修改3的显示控制系统的操作的流程图。首先,在步骤S204A和S204B,相机1A和相机1B捕获在X方向上行走的被摄体5。
接着,在步骤S208,相机1B将捕获被摄体5的捕获图像发送给放置在更接近被摄体5的位置处的相机1A。
随后,在步骤S212,相机1A中包括的动作历史信息获取器41从相机1A捕获的捕获图像以及从相机1B接收的捕获图像中获取动作历史信息。
此后,显示控制系统与上面参考图3描述的步骤S116到S136A和136B类似地,从步骤S216到S236A和S236B操作。
随后,在步骤S240,相机1B将捕获被摄体5的捕获图像发送给相机1A。
接着,在步骤S244,相机1A中包括的动作历史信息获取器41从相机1A捕获的捕获图像以及从相机1B接收的捕获图像中获取动作历史信息。
假设因为被摄体5继续行走,所以在该点最接近被摄体5的相机1从相机1A变为相机1B。在该情况下,作为服务器4的功能从相机1A传递给相机1B,如上所述。为此,在步骤S246,相机1A将获取的动作历史信息发送给相机1B。
此后,显示控制系统与上面参考图3描述的步骤S148到S164A和164B类似地,从步骤S248到S264B和S264C操作。
以此方式,根据本修改的显示控制系统能够在最接近每个被摄体的相机1中分布操作为服务器4,而不需要安装服务器4。
由此,上面描述了根据第一实施例的修改。
<2-2.第二实施例>
接着,将描述根据第二实施例的显示控制系统。本实施例是显示根据学习单元45学习的动作模式的引导图像的配置。因为根据本实施例的显示控制系统的配置与第一实施例中描述的相同,所以在此省略其详细描述。以下,将参考图11和12描述根据本实施例的显示控制系统的操作。
[2-2-1.操作过程]
图11是图示根据第二实施例的显示控制系统的操作的流程图。图12是图示根据第二实施例的显示控制系统的应用示例的说明图。以下,将在图11所示的流程图之后,详细描述图12所示的应用示例中的显示控制系统的操作。
如图12所示,相机1A和1B、显示设备2A、2B和2C、以及存储装置的柜子11放置在会议室中。首先,如图11所示,在步骤S304A和304B,相机1A和相机1B捕获正在搜索用来将膝上型个人计算机(PC)10连接到显示设备2C的电缆的被摄体5F,并且在显示表面3C上显示图像。
随后,在步骤S308,相机1A和相机1B将捕获的图像发送给服务器4。
接着,在步骤S312,动作历史信息获取器41从由相机1A和相机1B接收的捕获图像中获取动作历史信息。更具体地,动作历史信息获取器41获取握持膝上型PC10、具有愁容、行为是正在搜索某个东西、并且找到电缆的被摄体5F,作为动作历史信息。
随后,在步骤S316,学习单元45从动作历史信息获取器41输出的动作历史信息学习被摄体5F的动作模式。更具体地,在他或她握持膝上型PC10并具有愁容的情况下,学习单元45学习被摄体5F正在搜索电缆。
此后,在步骤S320A和S320B,相机1A和相机1B捕获被摄体5F正从柜子11中拿走使用的电缆。
随后,在步骤S324,相机1A和相机1B将捕获图像发送给服务器4。
然后,在步骤S328,服务器4记住电缆存储在柜子11中,或换句话说,电缆定位在柜子11中。
另一天,在步骤S332A和S332B,相机1A和相机1B再次捕获被摄体5F握持膝上型PC10,具有愁容并搜索电缆。
随后,在步骤S336,相机1A和相机1B将捕获图像发送给服务器4。
接着,在步骤S340,动作历史信息获取器41从由相机1A和相机1B接收的捕获图像中获取动作历史信息。更具体地,动作历史信息获取器41获取握持膝上型PC10并具有愁容的被摄体5F,作为动作历史信息。
随后,在步骤S344,预测器42基于学习单元45学习的动作模式预测被摄体5F的动作。更具体地,预测器42参考握持膝上型PC10并具有愁容的被摄体5F的动作模式,并且预测被摄体5F当前正在搜索电缆。
接着,在步骤S348,显示控制器44选择显示设备2A,其能够在被摄体5F容易可见的位置显示图像。随后,在步骤S352,引导图像生成器43根据基于动作模式的预测结果,生成包括为被摄体建议动作的显示的引导图像。更具体地,根据被摄体5F当前正在搜索电缆的预测结果,引导图像生成器43生成将电缆位置指示给被摄体5F并建议电缆获取的引导图像。
接着,在步骤S356,显示控制器44将引导图像发送给显示设备2A,并且在步骤S360,显示设备2A对显示表面3A显示建议电缆获取的引导图像9-61。
(补充说明)
显示控制系统还可以基于为另一个人学习的动作模式为被摄体显示引导图像。例如,在上述示例中,在另一个被摄体5正握持膝上型PC10、具有愁容在会议室中的情况下,显示控制系统可以类似地认为另一被摄体正在搜索电缆,类似于被摄体5F,并且显示建议电缆获取的引导图像。另外,在多个人在相同地方进行相同动作的情况下,显示控制系统可以显示建议与多个人进行的动作相同的动作的引导图像,即使被摄体以前从没去过该地方。
以此方式,根据本实施例的显示控制系统能够基于学习的动作模式显示为被摄体建议动作的引导图像。为此,被摄体能够接收要执行动作的建议,而不需要执行某种刻意的动作,如输入目标选择或搜索对象到显示控制系统中。
由此,上面描述了根据第二实施例的显示控制系统的操作过程。
[2-2-2.应用示例1]
接着,将描述第二实施例的另一应用示例。以下,将参考图13描述根据应用示例的显示控制系统的操作。
图13是图示根据第二实施例的显示控制系统的应用示例的说明图。如图13所示,尽管被摄体5已经在几分钟之前在厨房中给快速面条12倒入热水,但是当前他或她正在与厨房分开的房间中阅读。显示设备2B正在显示表面3B上显示指示引导图像9-71,指示直到快速面条12好了的剩余时间,但是因为被摄体5正在阅读,所以即使指示快速面板12好了的引导图像显示在显示表面3B上,被摄体5将不会注意到。
在这点,假设学习单元45已经学习被摄体5给快速面条12倒入热水并在剩余时间到零的情况下开始吃的动作模式。基于学习单元45学习的动作模式,预测器42预测在剩余时间到零的情况下被摄体5将吃快速面条12。在该情况下,引导图像生成器43生成指示剩余时间已经到零的引导图像,作为包括为被摄体5建议动作的显示的引导图像。然后,当剩余时间到零时,显示设备2A在正在阅读的被摄体5可感知的显示表面3A上显示生成的引导图像9-72。
[2-2-3.应用示例2]
此外,将描述第二实施例的另一应用示例。以下,将参考图14描述根据应用示例的显示控制系统的操作。
图14是图示根据第二实施例的显示控制系统的应用示例的说明图。如图14所示,被摄体5G和被摄体5H正在餐厅中相同桌上吃饭,并且多个刀、叉和勺放在桌上作为餐具。通常,尽管餐具从放在左端和右端的那些开始使用,但是有时候存在只使用右端的餐具的情况或者使用向内放置的餐具。结果,在一些情况下,被摄体可能不知道使用哪个餐具,除非他或她询问服务员。
在这点,假设学习单元45之前已经学习餐厅中拿出的菜以及与这样的菜对应的餐具的动作模式。因此,当将菜提供给被摄体5G和被摄体5H时,引导图像生成器43生成指示对应于每个菜的餐具的引导图像,作为包括为被摄体5G和5H建议动作的显示的引导图像。显示设备2然后可区分地显示被摄体5G的引导图像和被摄体5H的引导图像。例如,在图14所示的示例中,显示设备2A和2B分别在显示表面3A和3B上显示指示放置在被摄体5G的每侧的刀和叉的引导图像9-81和9-82(聚光灯)。此外,显示设备2C在显示表面3C上显示指示对于被摄体5H向内放置的勺子的引导图像9-83(聚光灯)。
[2-2-4.其它应用示例]
另外,根据本实施例的显示控制系统还可以显示为被摄体建议食用顺序的引导图像。例如,在自助餐类型的餐厅中,显示控制系统还可以显示建议新烹饪的菜或推荐的菜的位置的引导图像。另外,显示控制系统还可以为服用多种药物的被摄体显示引导图像,建议服用药物的顺序或间隔。
此外,根据本实施例的显示控制系统还可以根据被摄体的所有物提供引导图像的显示。例如,在医院内的被摄体正在行走同时持有内部医疗患者卡时,预测器42预测被摄体将进入内部医疗检查室,并且显示控制器44可以控制显示设备2显示目标引导图像,其中将内部医疗检查室设为目标。
此外,根据本实施例的显示控制系统还可以应用于安监系统。例如,在捕获私有住宅附近的行为可疑人员的情况下,该可疑行为可能符合可疑人员的之前学习的动作模式,因此预测器42可以确定该人员为可疑人员,并且发出警告声音。另外,可疑行为可能不符合任何之前学习的动作模式,因此预测器42可以将该人员的动作当做不可预测,并且发出警告声音。显然,根据本实施例的显示控制系统不仅可以发出警告声音,而且可以联系保安公司,或者在一些情况下,报告给警察。
<3.结论>
如上所述,根据本公开实施例的显示控制系统能够预测被摄体的动作,并且根据预测结果提供引导显示。在该情况下,显示控制系统能够根据被摄体的朝向、移动速度、和物理特性,在容易可见的位置和范围提供引导显示。此外,即使在多个人员聚集在相同地方的情况下,显示控制系统能够给被摄体提供引导显示,而不导致与另一人员的引导显示的混淆。
本领域技术人员应当理解,取决于涉及要求和其它因素,可以出现各种修改、组合、子组合和替代,只要它们在所附权利要求或其等效的范围内。
例如,尽管在前面实施例中显示设备2通过安装的投影仪等实现,但是本技术不限于这样的示例。例如,显示设备2还可以通过头戴式显示器(HMD)实现。在该情况下,显示控制器44根据诸如佩戴HMD的被摄体的位置和朝向以及佩戴时的高度的信息,显示诸如目标选择图像或目标引导图像的引导图像。
此外,可以创建用于使得内置到信息处理设备中的硬件(如CPU、ROM和RAM)展现与前面讨论的相机1、显示设备2和服务器4相同功能的计算机程序。此外,还可以提供在其上面记录这样的计算机程序的记录介质。
此外,本技术还可以配置如下。
(1)一种显示控制系统,包括:
多个显示单元;
成像单元,配置为捕获被摄体;
预测器,配置为根据成像单元捕获的捕获图像预测被摄体的动作;
引导图像生成器,配置为根据来自所述预测器的预测结果,生成引导被摄体的引导图像;以及
显示控制器,配置为基于来自所述预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。
(2)根据(1)所述的显示控制系统,还包括:
动作历史信息获取器,配置为基于捕获图像获取被摄体的动作历史信息,
其中,所述预测器基于由所述动作历史信息获取器获取的动作历史信息预测被摄体的动作。
(3)根据(2)所述的显示控制系统,其中,
所述动作历史信息获取器基于捕获图像识别被摄体对由选择的显示单元显示的引导图像的反应,并且基于识别的反应获取动作历史信息。
(4)根据(1)到(3)的任一所述的显示控制系统,其中,
所述引导图像生成器根据被摄体的物理特征生成引导图像。
(5)根据(1)到(4)的任一所述的显示控制系统,其中,
所述显示控制器控制选择的显示单元在根据被摄体的物理特征的位置处显示引导图像。
(6)根据(4)所述的显示控制系统,其中
所述引导图像生成器与被摄体的高度的物理特征成比例地生成大引导图像。
(7)根据(5)所述的显示控制系统,其中
所述显示控制器控制选择的显示单元在与被摄体的高度的物理特征成比例的距离处的位置显示引导图像。
(8)根据(1)到(7)的任一所述的显示控制系统,其中,
所述显示控制器控制选择的显示单元在与被摄体的移动速度成比例的距离处的位置显示引导图像。
(9)根据(1)到(8)的任一所述的显示控制系统,其中,
所述显示控制器从多个显示单元中选择能够靠近被摄体的位置显示图像的显示单元。
(10)根据(1)到(9)的任一所述的显示控制系统,其中,
所述显示控制器从多个显示单元中选择能够在被摄体面向的方向上显示图像的显示单元。
(11)根据(1)到(10)的任一所述的显示控制系统,其中,
在靠近被摄体存在另一个人的情况下,所述显示控制器控制选择的显示单元与为其它人显示的另一引导图像可区分地为被摄体显示引导图像。
(12)根据(1)到(11)的任一所述的显示控制系统,其中,
所述引导图像包括到达由来自所述预测器的预测结果指示的被摄体的目标的引导显示。
(13)根据(2)或(3)所述的显示控制系统,还包括:
学习单元,配置为从动作历史信息学习被摄体的动作模式,
其中,所述预测器基于由所述学习单元学习的动作模式预测被摄体的动作。
(14)根据(13)所述的显示控制系统,其中,
所述引导图像包括根据基于来自所述预测器的动作模式的预测结果,向被摄体建议动作的显示。
(15)一种非瞬时计算机可读记录介质,在其上面记录程序,所述程序使得计算机执行:
捕获被摄体;
根据捕获图像预测被摄体的动作;
基于预测结果从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元;
根据预测结果生成引导被摄体的引导图像;以及
控制选择的显示单元在与被摄体对应的位置处显示引导图像。
Claims (15)
1.一种显示控制系统,包括:
多个显示单元;
成像单元,配置为捕获被摄体;
预测器,配置为根据成像单元捕获的捕获图像预测被摄体的动作;
引导图像生成器,配置为根据来自所述预测器的预测结果,生成引导被摄体的引导图像;以及
显示控制器,配置为基于来自所述预测器的预测结果,从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元,并且控制选择的显示单元在与被摄体对应的位置处显示引导图像。
2.根据权利要求1所述的显示控制系统,还包括:
动作历史信息获取器,配置为基于捕获图像获取被摄体的动作历史信息,
其中,所述预测器基于由所述动作历史信息获取器获取的动作历史信息预测被摄体的动作。
3.根据权利要求2所述的显示控制系统,其中,
所述动作历史信息获取器基于捕获图像识别被摄体对由选择的显示单元显示的引导图像的反应,并且基于识别的反应获取动作历史信息。
4.根据权利要求1所述的显示控制系统,其中,
所述引导图像生成器根据被摄体的物理特征生成引导图像。
5.根据权利要求1所述的显示控制系统,其中,
所述显示控制器控制选择的显示单元在根据被摄体的物理特征的位置处显示引导图像。
6.根据权利要求4所述的显示控制系统,其中
所述引导图像生成器与被摄体的高度的物理特征成比例地生成大引导图像。
7.根据权利要求5所述的显示控制系统,其中
所述显示控制器控制选择的显示单元在与被摄体的高度的物理特征成比例的距离处的位置显示引导图像。
8.根据权利要求1所述的显示控制系统,其中,
所述显示控制器控制选择的显示单元在与被摄体的移动速度成比例的距离处的位置显示引导图像。
9.根据权利要求1所述的显示控制系统,其中,
所述显示控制器从多个显示单元中选择能够靠近被摄体的位置显示图像的显示单元。
10.根据权利要求1所述的显示控制系统,其中,
所述显示控制器从多个显示单元中选择能够在被摄体面向的方向上显示图像的显示单元。
11.根据权利要求1所述的显示控制系统,其中,
在靠近被摄体存在另一个人的情况下,所述显示控制器控制选择的显示单元与为其它人显示的另一引导图像可区分地为被摄体显示引导图像。
12.根据权利要求1所述的显示控制系统,其中,
所述引导图像包括到达由来自所述预测器的预测结果指示的被摄体的目标的引导显示。
13.根据权利要求2所述的显示控制系统,还包括:
学习单元,配置为从动作历史信息学习被摄体的动作模式,
其中,所述预测器基于由所述学习单元学习的动作模式预测被摄体的动作。
14.根据权利要求13所述的显示控制系统,其中,
所述引导图像包括根据基于来自所述预测器的动作模式的预测结果,向被摄体建议动作的显示。
15.一种非瞬时计算机可读记录介质,在其上面记录程序,所述程序使得计算机执行:
捕获被摄体;
根据捕获图像预测被摄体的动作;
基于预测结果从多个显示单元中选择能够在与被摄体对应的位置处显示图像的显示单元;
根据预测结果生成引导被摄体的引导图像;以及
控制选择的显示单元在与被摄体对应的位置处显示引导图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-279520 | 2012-12-21 | ||
JP2012279520A JP5942840B2 (ja) | 2012-12-21 | 2012-12-21 | 表示制御システム及び記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103888719A true CN103888719A (zh) | 2014-06-25 |
Family
ID=50957414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310684696.XA Pending CN103888719A (zh) | 2012-12-21 | 2013-12-13 | 显示控制系统和记录介质 |
Country Status (3)
Country | Link |
---|---|
US (4) | US9465984B2 (zh) |
JP (1) | JP5942840B2 (zh) |
CN (1) | CN103888719A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109000634A (zh) * | 2018-06-04 | 2018-12-14 | 上海木木机器人技术有限公司 | 一种导航对象行进路线的提醒方法和系统 |
CN109764873A (zh) * | 2018-12-17 | 2019-05-17 | 北京联合大学 | 一种动态照明导引表示和室内导航方法、装置及系统 |
CN111684354A (zh) * | 2018-02-09 | 2020-09-18 | 三菱电机株式会社 | 显示系统 |
CN112470231A (zh) * | 2018-07-26 | 2021-03-09 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN113168793A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 引导支援控制装置及引导支援系统 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6253127B2 (ja) * | 2014-04-18 | 2017-12-27 | Necソリューションイノベータ株式会社 | 情報提供装置 |
EP3141991A4 (en) * | 2014-05-09 | 2018-07-04 | Sony Corporation | Information processing device, information processing method, and program |
US9924143B2 (en) * | 2014-09-23 | 2018-03-20 | Intel Corporation | Wearable mediated reality system and method |
US9699858B2 (en) * | 2014-12-08 | 2017-07-04 | Cisco Technology, Inc. | Network controlled multi-color lighting services |
JP6613458B2 (ja) * | 2014-12-25 | 2019-12-04 | パナソニックIpマネジメント株式会社 | 投影装置 |
JP2016151453A (ja) * | 2015-02-17 | 2016-08-22 | 株式会社Screenホールディングス | 経路案内装置、及び経路案内方法 |
JP6528311B2 (ja) * | 2015-03-10 | 2019-06-12 | 成広 武田 | 行動サポート装置 |
CN107533712A (zh) * | 2015-05-11 | 2018-01-02 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
JP2017003820A (ja) * | 2015-06-11 | 2017-01-05 | パラマウントベッド株式会社 | 画像表示制御装置、画像表示システム及びプログラム |
JP6632824B2 (ja) * | 2015-07-06 | 2020-01-22 | パラマウントベッド株式会社 | 対象者誘導システム |
JP6885668B2 (ja) * | 2015-09-24 | 2021-06-16 | カシオ計算機株式会社 | 投影システム |
JP6170982B2 (ja) * | 2015-10-20 | 2017-07-26 | ヤフー株式会社 | 判定装置、判定方法及び判定プログラム |
KR20170050028A (ko) * | 2015-10-29 | 2017-05-11 | 삼성에스디에스 주식회사 | 객체의 위치 검색 시스템 및 방법 |
JP2017123120A (ja) * | 2016-01-08 | 2017-07-13 | 日本ユニシス株式会社 | 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム |
JP2017228957A (ja) * | 2016-06-23 | 2017-12-28 | カシオ計算機株式会社 | 出力制御装置、出力制御方法及びプログラム |
JP6864847B2 (ja) * | 2017-01-18 | 2021-04-28 | 東芝ライテック株式会社 | 管理装置、管理システムおよび管理方法 |
US11308645B2 (en) * | 2017-05-12 | 2022-04-19 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for wide-range optical tracking during medical imaging |
JP7037432B2 (ja) * | 2017-07-12 | 2022-03-16 | 三菱電機ビルテクノサービス株式会社 | 快適度表示装置 |
WO2019013014A1 (ja) * | 2017-07-12 | 2019-01-17 | 三菱電機株式会社 | 快適度表示装置 |
US10623790B2 (en) * | 2017-08-11 | 2020-04-14 | Benjamin Dean Maddalena | Methods and systems for cloud-based content management |
EP3738316A4 (en) * | 2018-01-12 | 2021-12-22 | Intelligent Security Systems Corporation | SYSTEMS AND METHODS OF LIGHT OUTPUT FROM AN IMAGE |
JP2021128350A (ja) | 2018-05-09 | 2021-09-02 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、および記録媒体 |
JP7073949B2 (ja) * | 2018-07-06 | 2022-05-24 | コニカミノルタ株式会社 | 避難誘導装置、避難誘導システム、および制御プログラム |
US20220058760A1 (en) * | 2018-12-27 | 2022-02-24 | Nec Corporation | Information processing apparatus, information processing method, and storage medium |
JP2020112749A (ja) * | 2019-01-16 | 2020-07-27 | 清水建設株式会社 | 表示制御装置、表示システム、及び表示方法 |
JP7409782B2 (ja) * | 2019-04-26 | 2024-01-09 | 清水建設株式会社 | 受付案内システム、受付案内方法 |
CN113950711B (zh) * | 2019-06-19 | 2023-11-21 | 三菱电机株式会社 | 配对显示装置、配对显示系统以及配对显示方法 |
US20210056272A1 (en) * | 2019-08-23 | 2021-02-25 | KEFI Holdings, Inc | Object detection-based control of projected content |
WO2021048908A1 (ja) * | 2019-09-10 | 2021-03-18 | 三菱電機株式会社 | 案内システム及び出力装置 |
WO2021176592A1 (ja) * | 2020-03-04 | 2021-09-10 | 三菱電機株式会社 | 情報処理装置、生成方法、及び生成プログラム |
JP7113045B2 (ja) * | 2020-06-10 | 2022-08-04 | パラマウントベッド株式会社 | 表示制御装置 |
JP7334686B2 (ja) * | 2020-07-03 | 2023-08-29 | トヨタ自動車株式会社 | 制御装置、プログラム、及び制御システム |
JP7041211B2 (ja) * | 2020-08-03 | 2022-03-23 | パラマウントベッド株式会社 | 画像表示制御装置、画像表示システム及びプログラム |
WO2022201498A1 (ja) * | 2021-03-26 | 2022-09-29 | 三菱電機株式会社 | 案内表示制御装置、案内表示制御方法及び経路案内システム |
WO2022215147A1 (ja) * | 2021-04-06 | 2022-10-13 | 三菱電機株式会社 | 投影制御装置、投影制御システム、および投影制御方法 |
WO2022215146A1 (ja) * | 2021-04-06 | 2022-10-13 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3750309A (en) * | 1972-02-16 | 1973-08-07 | Wallace Silversmiths Inc | Display book |
US4830619A (en) * | 1988-01-27 | 1989-05-16 | The Conde Nast Publications Inc. | Table setting display guide |
JP2000149150A (ja) | 1998-11-04 | 2000-05-30 | Toto Ltd | 案内システム |
US6129550A (en) * | 1999-03-11 | 2000-10-10 | Kaplan Companies, Inc. | Educating special needs children about place settings |
US6418372B1 (en) * | 1999-12-10 | 2002-07-09 | Siemens Technology-To-Business Center, Llc | Electronic visitor guidance system |
US7035650B1 (en) * | 2000-06-14 | 2006-04-25 | International Business Machines Corporation | System and method for providing directions |
JP3908137B2 (ja) * | 2002-09-18 | 2007-04-25 | 株式会社日立製作所 | 情報表示方法及びシステム |
WO2004075148A1 (de) * | 2003-02-19 | 2004-09-02 | Fraport Ag | Leitsystem und verfahren zur wegstreckenführung |
WO2004100104A2 (en) * | 2003-05-07 | 2004-11-18 | Koninklijke Philips Electronics N.V. | Public service system |
GB2404466B (en) * | 2003-07-31 | 2007-07-18 | Hewlett Packard Development Co | Method and apparatus for providing information about a real-world space |
US7375634B2 (en) * | 2005-08-08 | 2008-05-20 | Xerox Corporation | Direction signage system |
JP5086562B2 (ja) * | 2006-04-17 | 2012-11-28 | クラリオン株式会社 | ナビゲーション装置 |
US20080007400A1 (en) * | 2006-07-07 | 2008-01-10 | Terry Murphy | Image projection system |
US8073615B2 (en) * | 2007-05-02 | 2011-12-06 | Panasonic Corporation | Destination-prediction apparatus, destination-prediction method, and navigation apparatus |
DE102007033391A1 (de) * | 2007-07-18 | 2009-01-22 | Robert Bosch Gmbh | Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm |
US8423431B1 (en) * | 2007-12-20 | 2013-04-16 | Amazon Technologies, Inc. | Light emission guidance |
EP2263064B1 (en) * | 2008-04-03 | 2016-07-27 | Philips Intellectual Property & Standards GmbH | Method of guiding a user from an initial position to a destination in a public area |
US8334767B2 (en) * | 2009-01-12 | 2012-12-18 | General Electric Company | Method and system for facilitating automated navigation in a healthcare environment |
JP5366048B2 (ja) * | 2009-03-27 | 2013-12-11 | 株式会社国際電気通信基礎技術研究所 | 情報提供システム |
EP2491484A4 (en) * | 2009-10-20 | 2014-06-11 | Samsung Electronics Co Ltd | PRODUCT DELIVERY DEVICE, DISPLAY DEVICE AND METHOD FOR PROVIDING GUIDELINES THEREWITH |
US8930129B2 (en) * | 2009-11-18 | 2015-01-06 | Telenav, Inc. | Navigation system with multiple users and method of operation thereof |
US9749823B2 (en) * | 2009-12-11 | 2017-08-29 | Mentis Services France | Providing city services using mobile devices and a sensor network |
JP5627418B2 (ja) * | 2010-11-29 | 2014-11-19 | キヤノン株式会社 | 映像表示装置及び方法 |
JP5834464B2 (ja) * | 2011-04-22 | 2015-12-24 | 国立大学法人佐賀大学 | 誘導指示装置、誘導指示方法及びそのプログラム |
US8892350B2 (en) * | 2011-12-16 | 2014-11-18 | Toyoda Jidosha Kabushiki Kaisha | Journey learning system |
US8688290B2 (en) * | 2011-12-27 | 2014-04-01 | Toyota Motor Enginerring & Manufacturing North America, Inc. | Predictive destination entry for a navigation system |
US9536449B2 (en) * | 2013-05-23 | 2017-01-03 | Medibotics Llc | Smart watch and food utensil for monitoring food consumption |
US9406170B1 (en) * | 2012-07-16 | 2016-08-02 | Amazon Technologies, Inc. | Augmented reality system with activity templates |
TW201528112A (zh) * | 2013-12-27 | 2015-07-16 | Sony Corp | 控制裝置、控制方法及電腦程式 |
-
2012
- 2012-12-21 JP JP2012279520A patent/JP5942840B2/ja not_active Expired - Fee Related
-
2013
- 2013-12-11 US US14/103,032 patent/US9465984B2/en active Active
- 2013-12-13 CN CN201310684696.XA patent/CN103888719A/zh active Pending
-
2016
- 2016-08-12 US US15/235,406 patent/US10204293B2/en not_active Expired - Fee Related
-
2019
- 2019-01-03 US US16/239,033 patent/US20190138859A1/en not_active Abandoned
- 2019-08-12 US US16/538,267 patent/US10832099B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111684354A (zh) * | 2018-02-09 | 2020-09-18 | 三菱电机株式会社 | 显示系统 |
CN109000634A (zh) * | 2018-06-04 | 2018-12-14 | 上海木木机器人技术有限公司 | 一种导航对象行进路线的提醒方法和系统 |
CN109000634B (zh) * | 2018-06-04 | 2022-06-03 | 上海智蕙林医疗科技有限公司 | 一种导航对象行进路线的提醒方法和系统 |
CN112470231A (zh) * | 2018-07-26 | 2021-03-09 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN113168793A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 引导支援控制装置及引导支援系统 |
CN109764873A (zh) * | 2018-12-17 | 2019-05-17 | 北京联合大学 | 一种动态照明导引表示和室内导航方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
US10832099B2 (en) | 2020-11-10 |
US10204293B2 (en) | 2019-02-12 |
US9465984B2 (en) | 2016-10-11 |
US20200005099A1 (en) | 2020-01-02 |
US20160350621A1 (en) | 2016-12-01 |
JP2014123277A (ja) | 2014-07-03 |
JP5942840B2 (ja) | 2016-06-29 |
US20190138859A1 (en) | 2019-05-09 |
US20140176599A1 (en) | 2014-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103888719A (zh) | 显示控制系统和记录介质 | |
US10887526B2 (en) | Monitoring system, monitoring method, and monitoring program | |
US9373014B1 (en) | Systems and methods for event monitoring using aerial drones | |
US10943113B2 (en) | Drone pre-surveillance | |
EP3619695A1 (en) | System and method for threat monitoring, detection, and response | |
KR101210783B1 (ko) | 센싱 시스템을 이용한 노드 관리 시스템 및 노드 관리 방법 | |
US20160027290A1 (en) | Systems and methods for providing emergency resources | |
JP2016127563A (ja) | 人物追尾システム及び人物追尾方法 | |
US20170361466A1 (en) | Vision-based robot control system | |
JP2017163511A (ja) | 生体探索システム | |
US20220044016A1 (en) | Quick Activation Techniques for Industrial Augmented Reality Applications | |
US10911893B1 (en) | Contact tracing via location service | |
US11693410B2 (en) | Optimizing a navigation path of a robotic device | |
US20180082119A1 (en) | System and method for remotely assisted user-orientation | |
US11846941B2 (en) | Drone graphical user interface | |
US20150379217A1 (en) | Medical information display system, server, and portable terminal | |
JP2007221693A (ja) | 映像監視システム及び映像集信装置 | |
KR101448727B1 (ko) | 카메라 및 rfid를 이용한 실시간 위치 파악 시스템 | |
KR101448728B1 (ko) | 카메라 및 rfid를 이용한 실시간 위치 파악 시스템 | |
JP2018121351A (ja) | 生体探索システム | |
JP2018036847A (ja) | 情報処理システム | |
JP2008225855A (ja) | 捜索支援方法、捜索用携帯端末器、サーバ装置、捜索支援システム及びコンピュータプログラム | |
JP2011077652A (ja) | 遠隔コミュニケーションシステム及び遠隔コミュニケーション方法 | |
PL220953B1 (pl) | Urządzenie do wykrywania zagrożeń dla ludzi w terenie otwartym |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140625 |