WO2020148936A1 - 表示制御装置、表示システム、及び表示方法 - Google Patents

表示制御装置、表示システム、及び表示方法 Download PDF

Info

Publication number
WO2020148936A1
WO2020148936A1 PCT/JP2019/034761 JP2019034761W WO2020148936A1 WO 2020148936 A1 WO2020148936 A1 WO 2020148936A1 JP 2019034761 W JP2019034761 W JP 2019034761W WO 2020148936 A1 WO2020148936 A1 WO 2020148936A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
moving
unit
speed
control device
Prior art date
Application number
PCT/JP2019/034761
Other languages
English (en)
French (fr)
Inventor
松本 隆史
慧 古川
雄哉 五十嵐
元明 山崎
白石 理人
亮太郎 吉田
Original Assignee
清水建設株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 清水建設株式会社 filed Critical 清水建設株式会社
Publication of WO2020148936A1 publication Critical patent/WO2020148936A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a display control device, a display system, and a display method.
  • the present application claims priority based on Japanese Patent Application No. 2019-005208 filed in Japan on January 16, 2019, the content of which is incorporated herein by reference.
  • Patent Document 1 describes a projector installed in an elevator hall to display guidance information on a wall, a door, a floor, or the like.
  • a display control device is a position detection unit that detects a current position of an object on a floor surface that is a display surface, and the object is moving.
  • an object that estimates the position of the object after a predetermined time by using a direction speed detection unit that detects the moving direction and the moving speed of the object, and the moving direction and the moving speed obtained by the direction speed detecting unit.
  • a position estimation unit and a display information generation unit that generates display information at the position estimated by the object position estimation unit when the object is moving are provided.
  • a display system includes a display device that displays an image on a floor surface that is a display surface, and a display control device that outputs a video signal to the display device, wherein the display control device is the A position detection unit that detects the current position of the object on the floor, a direction speed detection unit that detects the moving direction and the moving speed of the object when the object is moving, and the direction speed detection unit.
  • the display control device is the A position detection unit that detects the current position of the object on the floor, a direction speed detection unit that detects the moving direction and the moving speed of the object when the object is moving, and the direction speed detection unit.
  • an object position estimating unit for estimating the position of the object after a predetermined time, and a position estimated by the object position estimating unit when the object is moving.
  • a display information generation unit that generates display information and outputs the display information to the display device.
  • a display method is a display method of displaying an image on a floor surface which is a display surface, the step of detecting a current position of an object on the floor surface which is a display surface, A step of detecting a moving direction and a moving speed of the object when the object is moving; a step of estimating a position of the object after a predetermined time by using the moving direction and the moving speed; Generating display information at the estimated position when moving.
  • the direction and speed of the object are detected, and based on the direction and speed of the object, the position where the object exists after the processing time has elapsed is estimated and estimated. Display information is displayed at the position. Thereby, even when the object is moving, the display information can be displayed without delaying the movement of the object.
  • FIG. 1 is an explanatory diagram of an outline of a display system 1 according to the first embodiment of the present invention.
  • a floor 10 is a space where people gather, such as a station (waiting place, waiting room, concourse, etc.), airport, park, commercial facility, building entrance, sidewalk, museum, hospital, public facility, event venue, etc. It is the floor.
  • the display device 11 displays an image so that the entire floor surface 10 serves as a display surface.
  • the display device 11 having the entire floor surface 10 as a display surface can be realized by a projection, an LED (Light Emitting Diode) module, or the like.
  • the imaging device 20 images the object 40 on the floor surface 10.
  • the display controller 30 can detect the current position of the object 40 by using the imaging result.
  • the object 40 is specifically a user visiting the place.
  • the imaging device 20 may be fixed to the ceiling, a pillar, or a wall surface.
  • the display control device 30 controls an image displayed on the floor surface 10, inputs an imaging result (video signal) from the imaging device 20, detects an object 40 from the imaging result, and detects the current position and movement of the object 40. calculate.
  • an imaging result video signal
  • the display control device 30 for example, a PC (Personal Computer) is used. More specifically, the display control device 30 analyzes the imaging result of the imaging device 20 and recognizes the position of the object 40.
  • the display control device 30 displays the display information 41 at a position on the floor surface 10 corresponding to the foot of the object 40.
  • the display information 41 is, for example, guide information that guides the user to a predetermined place, such as a guide to a landing at a station, a bus stop, or an airport.
  • FIG. 2 is a block diagram showing an outline of the display control device 30 in the information display system according to the first embodiment of the present invention.
  • the display control device 30 includes a control unit 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, and a storage device 34. Further, the display control device 30 outputs a video signal to the display device 11 and inputs the imaging result from the imaging device 20.
  • the control unit 31 includes a CPU (Central Processing Unit) and the like, and interprets a command from an application (for example, an application executed in an external device or the like) or a user's situation and executes the command.
  • a boot program is stored in the ROM 32.
  • the RAM 33 is used as a main memory.
  • control unit 31 is connected to the network 60 via the communication unit 35, stores a part of programs and data on the network (a server device connected to the network 60, etc.), and uses other applications and APIs (APIs). Application Programming Interface) etc.
  • APIs Application Programming Interface
  • FIG. 3 is a block diagram based on the functions of the display control device 30 according to the first embodiment of the present invention.
  • the display control device 30 includes an object analysis unit 51, a position detection unit 52, a movement determination unit 53, a direction speed detection unit 54, an object position estimation unit 55, and display information. And a generation unit 56.
  • the object analysis unit 51 detects the object 40 by analyzing the imaging result from the imaging device 20.
  • the position detection unit 52 detects the current position of the object 40 on the floor surface 10 from the imaging result of the imaging device 20.
  • the current position of the object 40 can be expressed by a horizontal coordinate X and a vertical coordinate Y of the floor surface 10.
  • the movement determination unit 53 determines whether the object 40 is moving.
  • the movement of the object 40 can be detected by comparing the current imaging result of the imaging device 20 with the imaging results of the imaging device 20 before and after a predetermined frame.
  • the direction/velocity detector 54 detects the direction and velocity of the object 40 when the object 40 is moving.
  • the direction and speed of the object 40 can be calculated by comparing the current imaging result of the imaging device 20 with the imaging results of the imaging device 20 before and after a predetermined frame, and detecting the amount of movement and the direction thereof.
  • the object position estimation unit 55 uses the direction and speed of the object 40 obtained by the direction/speed detection unit 54 to estimate the position where the object 40 exists after the processing time required for displaying has elapsed.
  • the position (X ⁇ , Y ⁇ ) where the object 40 is estimated to exist can be estimated as follows.
  • the delay time due to processing is detected in advance and the average value is used. Further, in the case of a system in which the processing contents are not constant but vary, the prediction of the processing time ⁇ and the prediction of the movement distance of the user during the time ⁇ may be adjusted by machine learning.
  • the display information generation unit 56 generates the display information 41 displayed at the feet of the object 40 and outputs it to the display device 11. That is, when the object 40 is stationary, the display information generation unit 56 causes the display information 41 to be displayed at the current position of the object 40 detected by the position detection unit 52. In addition, when the object 40 is moving, the display information generation unit 56 displays the display information 41 at the position estimated by the object position estimation unit 55.
  • the direction and speed detection unit 54 detects the direction and speed of the object
  • the object position estimation unit 55 detects that the object 40 exists after the processing time elapses.
  • the position that is likely to be present is estimated, and the display information 41 is displayed at the estimated position. Thereby, even when the object 40 is moving, the display information 41 can be displayed without delaying the movement of the object 40.
  • the current position of the object 40 is detected by imaging the object 40 on the floor 10 with the imaging device 20 and analyzing the imaging result, but the present invention is not limited to this. ..
  • a touch panel may be provided on the floor surface 10 and the current position of the object 40 may be detected from the detection signal of this touch panel.
  • FIG. 4 is a flowchart showing processing in the display control device 30 according to the first embodiment of the present invention.
  • Step S101 The control unit 31 determines whether or not the object 40 can be detected from the image pickup result of the image pickup apparatus 20, and if the object 40 can be detected (step S101: Yes), the process proceeds to step S102.
  • Step S102 The control unit 31 detects the current position of the object 40 on the floor surface 10 from the imaging result of the imaging device 20, and advances the process to step S103.
  • Step S103 The control unit 31 determines whether or not the object 40 is moving. If the object 40 is not moving (step S103: No), the process proceeds to step S104, and the object 40 is moving. If so (step S103: Yes), the process proceeds to step S105.
  • Step S104 The control unit 31 displays the display information at the current position of the object 40 detected in step S102, and returns the process to step S101.
  • Step S105 The control unit 31 detects the direction and speed of the object 40 and advances the process to step S106.
  • Step S106 The control unit 31 uses the direction and speed of the object 40 obtained in step S105 to estimate the position where the object 40 will exist after the processing time elapses, and the process proceeds to step S107. Proceed.
  • Step S107 The control unit 31 displays the display information at the estimated position obtained in step S106, and returns the process to step S101.
  • FIG. 5A, FIG. 5B, and FIG. 5C are explanatory diagrams of another embodiment of the display system according to the present invention.
  • FIG. 5A when the object 40 is stationary, the display information 41 is displayed at the feet of the object 40.
  • FIG. 5B when the object 40 is moving at a low speed, the display information 41 is displayed slightly ahead of the traveling direction of the object 40.
  • FIG. 5C when the object 40 is moving at high speed, the display information 41 is displayed further ahead in the traveling direction of the object 40.
  • FIG. 6 is an explanatory diagram of still another embodiment of the display system according to the present invention.
  • the display information 41 indicates the traveling direction V1 of the object 40 and the traveling direction V2 to the destination. It is displayed in the synthesized direction V3.
  • personalized information may be presented at the feet of the object 40 in combination with a mechanism for acquiring user attributes such as image analysis or a navigation application.
  • a mechanism for acquiring user attributes such as image analysis or a navigation application.
  • FIG. 7 is a schematic block diagram showing the basic configuration of the display control device 100 according to the present invention.
  • the display control device 100 according to the present invention has a position detecting unit 101, a directional speed detecting unit 102, an object position estimating unit 103, and a display information generating unit 104 as a basic configuration.
  • the position detection unit 101 detects the current position of the object 111 on the floor surface 110 which is the display surface.
  • the direction speed detection unit 102 detects the moving direction and the moving speed of the object 111 when the object 111 is moving.
  • the object position estimation unit 103 estimates the position of the object 111 after a predetermined time, using the moving direction and the moving speed obtained by the direction speed detecting unit 102.
  • the display information generation unit 104 generates the display information 112 at the position estimated by the object position estimation unit 103 when the object 111 is moving.
  • All or part of the display system 1 in the above-described embodiment may be realized by a computer.
  • the program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read by a computer system and executed.
  • the “computer system” mentioned here includes an OS and hardware such as peripheral devices.
  • the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system.
  • the "computer-readable recording medium” means to hold a program dynamically for a short time like a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory inside a computer system that serves as a server or a client in that case may hold a program for a certain period of time.
  • the program may be for realizing a part of the above-mentioned functions, or may be a program for realizing the above-mentioned functions in combination with a program already recorded in a computer system, It may be realized using a programmable logic device such as FPGA.
  • the present invention can be widely applied to a display control device, a display system, and a display method, and even when an object is moving, display information can be displayed without delaying the movement of the object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表示制御装置は、位置検出部と、方向速度検出部と、オブジェクト位置推定部と、表示情報生成部とを備える。位置検出部は、表示面とされた床面上でのオブジェクトの現在位置を検出する。方向速度検出部は、オブジェクトが移動している場合に、オブジェクトの移動方向及び移動速度を検出する。オブジェクト位置推定部は、方向速度検出部で求められた移動方向及び移動速度を用いて、所定時間後のオブジェクトの位置を推定する。表示情報生成部は、オブジェクトが移動している場合に、オブジェクト位置推定部で推定された位置に表示可能な表示情報を生成する。

Description

表示制御装置、表示システム、及び表示方法
 本発明は、表示制御装置、表示システム、及び表示方法に関する。
 本願は、2019年1月16日に、日本に出願された特願2019-005208号に基づき優先権を主張し、その内容をここに援用する。
 近年、建物の外壁を情報ディスプレイにしたメディアファサードなどの取り組みが見られる。また、デジタルアートインスタレーションなどで、壁面に絵を描いたり、壁面のアニメーション画像とインタラクションできる表現やツールが提案されている。また、電子ホワイトボードツールなどで、壁面に文字や絵を描いて物理的空間において複数人でコミュニケーションをしながら、同時に記録を電子データ化することができるようになっている。さらに公共空間においては、デジタルサイネージとして、インタラクティブ広告や、タッチスクリーンによる情報端末などが用意されるようになっている。また、例えば特許文献1には、エレベータの乗場にプロジェクターを設置し、壁や扉、床等に案内情報を表示するものが記載されている。
特開2018-70377号公報
 例えば、床面全体を表示面として、ユーザの足元に案内情報を表示する場合、ユーザの位置を画像やセンサなどから検知し、そのユーザに提示すべき情報を取得し、表示を行うことになる。しかしながら、これらの一連の処理に時間がかかる。このため、ユーザが移動している場合、処理にかかる時間の間にユーザが移動してしまうため、足元の表示は、常にユーザの移動速度に応じて、遅れて表示されてしまう。
 上述の課題を鑑み、本発明は、オブジェクトが移動している場合でも、オブジェクトの移動に伴った情報表示が行える表示制御装置、表示システム、及び表示方法を提供することを目的とする。
 上述の課題を解決するために、本発明の一態様に係る表示制御装置は、表示面とされた床面上でのオブジェクトの現在位置を検出する位置検出部と、前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する方向速度検出部と、前記方向速度検出部で求められた移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定するオブジェクト位置推定部と、前記オブジェクトが移動している場合に、前記オブジェクト位置推定部で推定された位置に表示情報を生成する表示情報生成部とを備える。
 本発明の一態様に係る表示システムは、表示面とされた床面に映像を表示する表示装置と、前記表示装置に映像信号を出力する表示制御装置とを備え、前記表示制御装置は、前記床面上でのオブジェクトの現在位置を検出する位置検出部と、前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する方向速度検出部と、前記方向速度検出部で求められた移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定するオブジェクト位置推定部と、前記オブジェクトが移動している場合に、前記オブジェクト位置推定部で推定された位置に表示情報を生成し、前記表示装置に出力する表示情報生成部とを有する。
 本発明の一態様に係る表示方法は、表示面とされた床面に映像を表示する表示方法であって、表示面とされた床面上でのオブジェクトの現在位置を検出する工程と、前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する工程と、前記移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定する工程と、前記オブジェクトが移動している場合に、前記推定された位置に表示情報を生成する工程とを含む。
 本発明によれば、オブジェクトが動いている場合には、オブジェクトの方向及び速度を検出し、このオブジェクトの方向及び速度を基に、処理時間経過後にオブジェクトが存在する位置を推定し、推定された位置に表示情報を表示させている。これにより、オブジェクトが移動している場合でも、オブジェクトの動きに遅れることなく、表示情報を表示できる。
本発明の第1の実施形態に係る表示システムの概要の説明図である。 本発明の第1の実施形態に係る情報表示システムにおける表示制御装置の概要を示すブロック図である。 本発明の第1の実施形態に係る表示制御装置の機能に基づくブロック図である。 本発明の第1の実施形態に係る表示制御装置での処理を示すフローチャートである。 本発明に係る表示システムの他の実施形態の説明図である。 本発明に係る表示システムの他の実施形態の説明図である。 本発明に係る表示システムの他の実施形態の説明図である。 本発明に係る表示システムの更に他の実施形態の説明図である。 本発明による表示制御装置の基本構成を示す概略ブロック図である。
 以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の第1の実施形態に係る表示システム1の概要の説明図である。
 図1において、床面10は、駅(待合所、待合室、コンコース等)、空港、公園、商業施設、ビルのエントランス、歩道、博物館、病院、公共施設、イベント会場等、人が集まるスペースの床面である。表示装置11は、床面10全体が表示面となるように映像を表示する。床面10全体を表示面とする表示装置11は、プロジェクションやLED(Light Emitting Diode)モジュールなどにより実現可能である。
 撮像装置20は、床面10上のオブジェクト40を撮像する。表示制御装置30がこの撮像結果を用いることで、オブジェクト40の現在位置を検出することができる。オブジェクト40は、具体的には、その場所に訪れているユーザである。撮像装置20は、天井に固定してもよいし、柱や壁面に固定してもよい。
 表示制御装置30は、床面10に映し出す映像を制御するとともに、撮像装置20からの撮像結果(映像信号)を入力し、この撮像結果からオブジェクト40を検出し、オブジェクト40の現在位置や動きを算出する。表示制御装置30は、例えばPC(Personal Computer)が用いられる。より具体的には、表示制御装置30は、撮像装置20の撮像結果を解析して、オブジェクト40の位置を認識する。そして、表示制御装置30は、オブジェクト40を検出すると、床面10のうちオブジェクト40の足元に相当する位置に表示情報41を表示する。表示情報41は、例えば、駅、バス停、空港等での乗り場案内等、所定の場所への誘導を行うガイド情報である。
 図2は、本発明の第1の実施形態に係る情報表示システムにおける表示制御装置30の概要を示すブロック図である。図2に示すように、表示制御装置30は、制御部31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、及びストレージデバイス34を含んで構成される。また、表示制御装置30は、表示装置11に映像信号を出力するとともに、撮像装置20からの撮像結果を入力する。制御部31は、CPU(Central Processing Unit)等からなり、アプリケーション(例えば外部の機器等において実行されるアプリケーション)からの命令やユーザの状況を解釈して、実行を行う。ROM32には、ブートプログラムが記憶されている。RAM33は、メインメモリとして用いられる。ストレージデバイス34は、例えばHDD(Hard Disk Drive)やSDD(Solid State Drive)を用いることができ、OS(Operating System)やアプリケーションのプログラムやデータが記録される。また、制御部31は、通信部35を介してネットワーク60に接続され、プログラムやデータの一部をネットワーク上(ネットワーク60に接続されるサーバ装置等)に保存したり、他のアプリケーションとAPI(Application Programming Interface)等によって連携してもよい。
 本実施形態に係る表示制御装置30は、制御部31の処理により実現できる。図3は、本発明の第1の実施形態に係る表示制御装置30の機能に基づくブロック図である。
 図3に示すように、本発明の実施形態に係る表示制御装置30は、オブジェクト解析部51、位置検出部52、移動判定部53、方向速度検出部54、オブジェクト位置推定部55、及び表示情報生成部56とを有している。
 オブジェクト解析部51は、撮像装置20からの撮像結果を解析して、オブジェクト40を検出する。
 位置検出部52は、撮像装置20の撮像結果から、床面10上でのオブジェクト40の現在位置を検出する。オブジェクト40の現在位置は、床面10の水平方向の座標Xと垂直方向の座標Yとで表現できる。
 移動判定部53は、オブジェクト40が移動しているか否かを判定する。オブジェクト40の移動は、撮像装置20の現在の撮像結果と、所定フレーム前後する撮像装置20の撮像結果とを比較することで検出できる。
 方向速度検出部54は、オブジェクト40が移動している場合に、オブジェクト40の方向及び速度を検出する。オブジェクト40の方向及び速度は、撮像装置20の現在の撮像結果と、所定フレーム前後する撮像装置20の撮像結果とを比較し、その動き量と方向とを検出することで算出できる。
 オブジェクト位置推定部55は、方向速度検出部54で求められたオブジェクト40の方向及び速度を用いて、表示を行うまでに要する処理時間経過後にオブジェクト40が存在する位置を推定する。
 つまり、オブジェクト40の現在位置を(X0,Y0)とし、オブジェクト40のX方向及びY方向の速度を(Vx,Vy)とし、表示を行うまでに要する処理時間をαとすると、処理時間α後にオブジェクト40が存在していると推定される位置(Xα,Yα)は、以下のように推定できる。
Xα=X0+Vx・α
Yα=Y0+Vy・α
 なお、処理時間αは、事前に、処理による遅延時間を検出し、その平均値を用いる。また、処理内容が一定ではなくばらつきがあるシステムの場合には、処理時間αの予測と、ユーザの時間α中の移動距離の予測を、機械学習によって、調整を行うようにしても良い。
 表示情報生成部56は、オブジェクト40の足元に表示する表示情報41を生成して、表示装置11に出力する。すなわち、表示情報生成部56は、オブジェクト40が静止している場合には、位置検出部52で検出されたオブジェクト40の現在位置に、表示情報41を表示させる。また、オブジェクト40が移動している場合には、表示情報生成部56は、オブジェクト位置推定部55で推定された位置に、表示情報41を表示させる。
 このように、本実施形態では、オブジェクト40が動いている場合には、方向速度検出部54でオブジェクトの方向及び速度を検出し、オブジェクト位置推定部55で処理時間経過後にオブジェクト40が存在しているであろう位置を推定し、推定された位置に表示情報41を表示させている。これにより、オブジェクト40が移動している場合でも、オブジェクト40の動きに遅れることなく、表示情報41を表示できる。
 なお、上述の例では、オブジェクト40の現在位置は、撮像装置20で床面10上のオブジェクト40を撮像し、この撮像結果を解析して検出しているが、これに限定されるものではない。例えば、床面10上にタッチパネルを設け、このタッチパネルの検出信号から、オブジェクト40の現在位置を検出しても良い。
 図4は、本発明の第1の実施形態に係る表示制御装置30での処理を示すフローチャートである。
 (ステップS101)制御部31は、撮像装置20の撮像結果から、オブジェクト40が検出できたか否かを判定し、オブジェクト40が検出できたら(ステップS101:Yes)、処理をステップS102に進める。
 (ステップS102)制御部31は、撮像装置20の撮像結果から、床面10上でのオブジェクト40の現在位置を検出して、処理をステップS103に進める。
 (ステップS103)制御部31は、オブジェクト40が移動しているか否かを判定し、オブジェクト40が移動していなければ(ステップS103:No)、処理をステップS104に進め、オブジェクト40が移動していれば(ステップS103:Yes)、処理をステップS105に進める。
 (ステップS104)制御部31は、ステップS102で検出されたオブジェクト40の現在位置に、表示情報を表示して、ステップS101に処理をリターンする。
 (ステップS105)制御部31は、オブジェクト40の方向及び速度を検出して、処理をステップS106に進める。
 (ステップS106)制御部31は、ステップS105で求められたオブジェクト40の方向及び速度を用いて、処理時間経過後にオブジェクト40が存在しているであろう位置を推定して、処理をステップS107に進める。
 (ステップS107)制御部31は、ステップS106で求められた推定位置に、表示情報を表示して、ステップS101に処理をリターンする。
 なお、上述の例では、表示情報をオブジェクト40の足元に表示しているが、オブジェクト40の移動速度に応じて、表示情報を表示する位置を制御するようにしても良い。すなわち、図5A、図5B、及び図5Cは、本発明に係る表示システムの他の実施形態の説明図である。この例では、図5Aに示すように、オブジェクト40が静止しているときには、表示情報41はオブジェクト40の足元に表示する。また、図5Bに示すように、オブジェクト40が低速で移動しているときには、表示情報41はオブジェクト40の進行方向の少し先に表示する。更に、図5Cに示すように、オブジェクト40が高速で移動しているときには、表示情報41はオブジェクト40の進行方向の更に先に表示する。
 更に、ユーザを目的地に誘導するような場合には、オブジェクト40の移動方向と、目的地への移動方向とを合成して、表示情報を表示しても良い。すなわち、図6は、本発明に係る表示システムの更に他の実施形態の説明図である。図6に示すように、オブジェクト40の進行方向がV1であり、目的地への進行方向がV2である場合、表示情報41は、オブジェクト40の進行方向V1と目的地への進行方向V2とを合成した方向V3に表示する。
 また、画像解析などのユーザ属性を取得する仕組みや、ナビゲーションのアプリケーションなどと組み合わせて、パーソナライズされた情報をオブジェクト40の足元に提示してもよい。但し、表示の誤差に影響させないように、情報取得は表示位置の計算とは別系統で処理をするのが望ましい。
 図7は、本発明による表示制御装置100の基本構成を示す概略ブロック図である。本発明による表示制御装置100は、位置検出部101と、方向速度検出部102と、オブジェクト位置推定部103と、表示情報生成部104とを基本構成とする。
 位置検出部101は、表示面とされた床面110上でのオブジェクト111の現在位置を検出する。方向速度検出部102は、オブジェクト111が移動している場合に、オブジェクト111の移動方向及び移動速度を検出する。オブジェクト位置推定部103は、方向速度検出部102で求められた移動方向及び移動速度を用いて、所定時間後のオブジェクト111の位置を推定する。表示情報生成部104は、オブジェクト111が移動している場合に、オブジェクト位置推定部103で推定された位置に表示情報112を生成する。
 上述した実施形態における表示システム1の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 本発明は、表示制御装置、表示システム、及び表示方法に広く適用でき、オブジェクトが移動している場合でも、オブジェクトの動きに遅れることなく、表示情報を表示できる。
 10、110…床面
 11…表示装置
 20…撮像装置
 30、100…表示制御装置
 40、111…オブジェクト
 41、112…表示情報
 51…オブジェクト解析部
 52、101…位置検出部
 53…移動判定部
 54、102…方向速度検出部
 55、103…オブジェクト位置推定部
 56、104…表示情報生成部

Claims (5)

  1.  表示面とされた床面上でのオブジェクトの現在位置を検出する位置検出部と、
     前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する方向速度検出部と、
     前記方向速度検出部で求められた移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定するオブジェクト位置推定部と、
     前記オブジェクトが移動している場合に、前記オブジェクト位置推定部で推定された位置に表示情報を生成する表示情報生成部と、
     を備えた表示制御装置。
  2.  前記オブジェクト位置推定部は、前記所定時間として、表示を行うまでに要する処理時間経過後の前記オブジェクトの位置を推定する請求項1に記載の表示制御装置。
  3.  前記表示情報は、所定の場所への誘導を行うガイド情報である請求項1又は2に記載の表示制御装置。
  4.  表示面とされた床面に映像を表示する表示装置と、
     前記表示装置に映像信号を出力する表示制御装置と、
     を備え、
     前記表示制御装置は、
     前記床面上でのオブジェクトの現在位置を検出する位置検出部と、
     前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する方向速度検出部と、
     前記方向速度検出部で求められた移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定するオブジェクト位置推定部と、
     前記オブジェクトが移動している場合に、前記オブジェクト位置推定部で推定された位置に表示情報を生成し、前記表示装置に出力する表示情報生成部と、
     を有する表示システム。
  5.  表示面とされた床面に映像を表示する表示方法であって、
     表示面とされた床面上でのオブジェクトの現在位置を検出する工程と、
     前記オブジェクトが移動している場合に、前記オブジェクトの移動方向及び移動速度を検出する工程と、
     前記移動方向及び移動速度を用いて、所定時間後の前記オブジェクトの位置を推定する工程と、
     前記オブジェクトが移動している場合に、前記推定された位置に表示情報を生成する工程と、
     を含む表示方法。
PCT/JP2019/034761 2019-01-16 2019-09-04 表示制御装置、表示システム、及び表示方法 WO2020148936A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019005208A JP2020112749A (ja) 2019-01-16 2019-01-16 表示制御装置、表示システム、及び表示方法
JP2019-005208 2019-01-16

Publications (1)

Publication Number Publication Date
WO2020148936A1 true WO2020148936A1 (ja) 2020-07-23

Family

ID=71614072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034761 WO2020148936A1 (ja) 2019-01-16 2019-09-04 表示制御装置、表示システム、及び表示方法

Country Status (2)

Country Link
JP (1) JP2020112749A (ja)
WO (1) WO2020148936A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
JP2011137905A (ja) * 2009-12-28 2011-07-14 Fujitsu Ltd 投影システム、投影処理プログラムおよび投影システムの制御方法
WO2013186994A1 (ja) * 2012-06-15 2013-12-19 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
JP2015119418A (ja) * 2013-12-19 2015-06-25 カシオ計算機株式会社 投影システム、投影方法及び投影プログラム
JP2016167208A (ja) * 2015-03-10 2016-09-15 成広 武田 行動サポート装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
JP2011137905A (ja) * 2009-12-28 2011-07-14 Fujitsu Ltd 投影システム、投影処理プログラムおよび投影システムの制御方法
WO2013186994A1 (ja) * 2012-06-15 2013-12-19 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
JP2015119418A (ja) * 2013-12-19 2015-06-25 カシオ計算機株式会社 投影システム、投影方法及び投影プログラム
JP2016167208A (ja) * 2015-03-10 2016-09-15 成広 武田 行動サポート装置

Also Published As

Publication number Publication date
JP2020112749A (ja) 2020-07-27

Similar Documents

Publication Publication Date Title
KR102032398B1 (ko) 가상 환경에서 객체의 선택을 위한 방법
US10440497B2 (en) Multi-modal dereverbaration in far-field audio systems
JP3909554B2 (ja) プレゼンテーション制御システム及びその制御方法
KR101693951B1 (ko) 제스처 인식 방법 및 제스처 검출기
WO2019177181A1 (ko) 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
US20120005630A1 (en) Highly Responsive Screen Output Device, Screen Output System, and Screen Output Method
EP4386525A2 (en) Dynamic warping of projected images based on a pose of a user
US11375244B2 (en) Dynamic video encoding and view adaptation in wireless computing environments
KR20150076186A (ko) 쌍방향 디스플레이 시스템에서의 모션 보상
WO2022031478A1 (en) Systems and methods for object tracking using fused data
US10620514B2 (en) Information processing apparatus, information processing method, and program
WO2022183663A1 (zh) 事件检测方法、装置、电子设备、存储介质及程序产品
US20160266648A1 (en) Systems and methods for interacting with large displays using shadows
WO2020148936A1 (ja) 表示制御装置、表示システム、及び表示方法
JP2008156066A (ja) エレベータ表示システム
US11227157B1 (en) System and method for gaze direction detection
JP2007133305A (ja) 情報表示制御装置および情報表示制御方法
US20210258548A1 (en) Information processing device, information processing method, and recording medium
JP2018005663A (ja) 情報処理装置、表示システム、プログラム
CN111459266A (zh) 一种在虚拟现实的3d场景中操作2d应用的方法和装置
WO2020148881A1 (ja) 情報提示装置、情報提示システム、情報提示方法、及び情報提示プログラム
JP2007133304A (ja) 情報表示制御装置および情報表示制御方法
KR20210060839A (ko) 엘리베이터에서의 광고 송출 방법 및 그 장치
KR101405439B1 (ko) 동작인식 배경영상 제공시스템, 동작인식 배경영상 제공방법 및 그 기록매체
JP6099845B1 (ja) 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19910612

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19910612

Country of ref document: EP

Kind code of ref document: A1