JP7012241B2 - Video display system and video display method - Google Patents

Video display system and video display method Download PDF

Info

Publication number
JP7012241B2
JP7012241B2 JP2017019001A JP2017019001A JP7012241B2 JP 7012241 B2 JP7012241 B2 JP 7012241B2 JP 2017019001 A JP2017019001 A JP 2017019001A JP 2017019001 A JP2017019001 A JP 2017019001A JP 7012241 B2 JP7012241 B2 JP 7012241B2
Authority
JP
Japan
Prior art keywords
image
unit
main body
projection
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017019001A
Other languages
Japanese (ja)
Other versions
JP2018125816A (en
Inventor
慎平 浜口
秀樹 山下
飛光 栗原
善彦 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017019001A priority Critical patent/JP7012241B2/en
Publication of JP2018125816A publication Critical patent/JP2018125816A/en
Application granted granted Critical
Publication of JP7012241B2 publication Critical patent/JP7012241B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、一般に映像表示システム及び映像表示方法に関し、より詳細には、投影面に映像を投影することにより映像を表示する映像表示システム及び映像表示方法に関する。 The present invention relates to a video display system and a video display method in general, and more particularly to a video display system and a video display method for displaying a video by projecting the video on a projection surface.

特許文献1には、ショッピングモール等で使用され、押手が向かう方向に電子的な情報を表示するショッピングカートが記載されている。 Patent Document 1 describes a shopping cart used in a shopping mall or the like and displaying electronic information in the direction in which the pusher is directed.

特許文献1に記載されたショッピングカートは、ショッピングカートの押手であるユーザの真正面に設置されたディスプレイを有し、特売品に関する情報等をディスプレイに表示することで、ユーザが向かう方向に電子的な情報を表示する。ディスプレイはプロジェクタも含み、ショッピングカートにプロジェクタ及びスクリーンが設置される場合、プロジェクタはショッピングカートのユーザ側に設置され、スクリーンがユーザから最も遠い面に設置される。 The shopping cart described in Patent Document 1 has a display installed directly in front of the user who is the pusher of the shopping cart, and by displaying information about a bargain item on the display, it is electronic in the direction in which the user is heading. Display information. The display also includes a projector, and when the projector and the screen are installed in the shopping cart, the projector is installed on the user side of the shopping cart, and the screen is installed on the surface farthest from the user.

特開2004-106827号公報Japanese Unexamined Patent Publication No. 2004-106827

しかし、特許文献1に記載の構成では、ショッピングカートのユーザ(押手)という特定の人に向けて映像(情報)が表示されるので、例えば、ショッピングカートの周辺の不特定の人にとっては、表示される映像が見えにくいことがある。 However, in the configuration described in Patent Document 1, since the video (information) is displayed to a specific person who is a user (pusher) of the shopping cart, for example, it is displayed for an unspecified person around the shopping cart. It may be difficult to see the image to be displayed.

本発明は上記事由に鑑みてなされており、不特定の人から見えやすい映像を表示することができる映像表示システム及び映像表示方法を提供することを目的とする。 The present invention has been made in view of the above reasons, and an object of the present invention is to provide a video display system and a video display method capable of displaying a video that is easy for an unspecified person to see.

本発明の第1の態様に係る映像表示システムは、本体部と、投影部と、を備える。前記本体部は、移動可能である。前記投影部は、前記本体部に搭載されており、前記本体部の周囲に存在する投影面に映像を投影する。前記本体部は、台車を搬送するための搬送部を有する。前記投影部は、少なくとも前記搬送部が前記台車の搬送を行っていない待機期間において、前記映像を投影するための対象領域に映像を投影するように構成されている。 The image display system according to the first aspect of the present invention includes a main body unit and a projection unit. The main body is movable. The projection unit is mounted on the main body unit and projects an image on a projection surface existing around the main body unit. The main body portion has a transport portion for transporting the dolly. The projection unit is configured to project an image onto a target area for projecting the image, at least during a waiting period during which the transport unit is not transporting the trolley.

本発明の第2の態様に係る映像表示システムは、第1の態様において、検知部と、移動制御部と、を更に備える。前記検知部は、前記投影面において、前記映像を投影するための対象領域の状態を検知する。前記移動制御部は、前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記本体部を移動させて前記対象領域を確保するように、前記検知部の検知結果に応じて、前記本体部を制御する。 The video display system according to the second aspect of the present invention further includes a detection unit and a movement control unit in the first aspect. The detection unit detects the state of the target area for projecting the image on the projection surface. When the state of the target area is not in a state where the image can be projected, the movement control unit moves the main body unit to secure the target area according to the detection result of the detection unit. , Controls the main body.

本発明の第3の態様に係る映像表示システムは、第2の態様において、投影制御部を更に備える。前記投影制御部は、前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記映像の大きさ、形状、及び投影方向の少なくとも1つを変化させて、前記対象領域を確保するように、前記検知部の検知結果に応じて、前記投影部を制御する。 The video display system according to the third aspect of the present invention further includes a projection control unit in the second aspect. When the state of the target area is not in a state where the image can be projected, the projection control unit changes at least one of the size, shape, and projection direction of the image to secure the target area. As such, the projection unit is controlled according to the detection result of the detection unit.

本発明の第の態様に係る映像表示システムは、第1~のいずれかの態様において、前記投影面は、互いに面の向きが異なる第1面及び第2面を含む複数の面から選択される。前記投影部の動作モードは、前記第1面に前記映像を投影する第1モードと、前記第2面に前記映像を投影する第2モードと、を有する。 In the image display system according to the fourth aspect of the present invention, in any one of the first to third aspects, the projection plane is selected from a plurality of planes including the first plane and the second plane having different orientations from each other. Will be done. The operation mode of the projection unit includes a first mode for projecting the image on the first surface and a second mode for projecting the image on the second surface.

本発明の第の態様に係る映像表示システムは、第の態様において、前記投影部によって投影される前記映像に人の視線を誘導するための情報の提示を行う視線誘導部を更に備える。前記視線誘導部は、少なくとも前記投影部の前記動作モードが前記第2モードである場合に、前記第2面に前記視線を誘導するための情報を提示するように構成されている。 In the fourth aspect, the image display system according to the fifth aspect of the present invention further includes a line-of-sight guidance unit that presents information for guiding a person's line of sight to the image projected by the projection unit. The line-of-sight guidance unit is configured to present information for guiding the line of sight to the second surface at least when the operation mode of the projection unit is the second mode.

本発明の第の態様に係る映像表示システムは、第1~のいずれかの態様において、前記本体部が自律的に移動するように前記本体部を制御する自律制御部を更に備える。 The video display system according to the sixth aspect of the present invention further includes an autonomous control unit that controls the main body unit so that the main body unit moves autonomously in any one of the first to fifth aspects.

本発明の第の態様に係る映像表示システムは、第の態様において、映像生成部を更に備える。前記映像生成部は、前記映像が、前記本体部の現在の位置に関連する内容と、前記本体部の移動経路に関連する内容と、前記本体部の姿勢に関連する内容との少なくとも1つを表すように、前記自律制御部に連動して前記映像を生成する。 The video display system according to the seventh aspect of the present invention further includes a video generation unit in the sixth aspect. The video generation unit has at least one content in which the video is related to the current position of the main body portion, a content related to the movement path of the main body portion, and a content related to the posture of the main body portion. As shown, the video is generated in conjunction with the autonomous control unit.

本発明の第の態様に係る映像表示システムは、第2又は3の態様において、前記検知部により前記対象領域の状態が前記映像を投影可能な状態にあると判断された累計時間を計測する時間計測部を更に備える。 In the second or third aspect, the image display system according to the eighth aspect of the present invention measures the cumulative time when the detection unit determines that the state of the target area is in a state where the image can be projected. It also has a time measurement unit.

本発明の第の態様に係る映像表示システムは、第1~のいずれかの態様において、前記本体部の周辺に存在する人の属性情報に応じて、前記映像中の言語を決定するように構成されている。
本発明の第10の態様に係る映像表示システムは、第の態様において、前記累計時間に応じて課金するように構成されている。
本発明の第11の態様に係る映像表示方法は、本体部が移動する移動工程と、前記本体部に搭載されており、前記本体部の周囲に存在する投影面に映像を投影する投影工程と、台車を搬送する搬送工程と、検知工程と、移動制御工程と、を有する。前記検知工程は、前記投影面において、前記映像を投影するための対象領域の状態を検知する。前記移動制御工程は、前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記本体部を移動させて前記対象領域を確保するように、前記検知工程の検知結果に応じて、前記本体部を制御する。前記投影工程は、少なくとも前記搬送工程が前記台車の搬送を行っていない待期期間において、前記対象領域に前記映像を投影する。
本発明の第12の態様に係る映像表示方法は、第11の態様において、投影制御工程を更に有する。前記投影制御工程は、前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記映像の大きさ、形状、及び投影方向の少なくとも1つを変化させて、前記対象領域を確保するように、前記検知工程の検知結果に応じて、前記投影工程を制御する
In any one of the first to eighth aspects, the video display system according to the ninth aspect of the present invention determines the language in the video according to the attribute information of a person existing around the main body. It is configured in.
The video display system according to the tenth aspect of the present invention is configured to charge according to the cumulative time in the eighth aspect.
The image display method according to the eleventh aspect of the present invention includes a moving step of moving the main body portion and a projection step of projecting an image on a projection surface mounted on the main body portion and existing around the main body portion. It has a transport process for transporting a trolley, a detection process, and a movement control process . The detection step detects the state of the target area for projecting the image on the projection surface. In the movement control step, when the state of the target area is not in a state where the image can be projected, the main body portion is moved to secure the target area according to the detection result of the detection step. , Controls the main body. The projection step projects the image on the target area at least during a waiting period during which the transport step does not transport the dolly.
The image display method according to the twelfth aspect of the present invention further includes a projection control step in the eleventh aspect. In the projection control step, when the state of the target area is not in a state where the image can be projected, at least one of the size, shape, and projection direction of the image is changed to secure the target area. As such, the projection process is controlled according to the detection result of the detection process .

本発明は、不特定の人から見えやすい映像を表示することができる、という利点がある。 The present invention has an advantage that an image that can be easily seen by an unspecified person can be displayed.

図1は、実施形態1に係る映像表示システムを示す斜視図である。FIG. 1 is a perspective view showing a video display system according to the first embodiment. 図2は、同上の映像表示システムのブロック図である。FIG. 2 is a block diagram of the same video display system. 図3は、同上の映像表示システムの映像を投影する動作を示す斜視図である。FIG. 3 is a perspective view showing an operation of projecting an image of the same image display system. 図4は、同上の映像表示システムの映像を投影する他の動作を示す斜視図である。FIG. 4 is a perspective view showing another operation of projecting an image of the same image display system. 図5Aは、同上の映像表示システムの本体部を移動させて対象領域を確保する動作を示す斜視図、図5Bは、同上の映像表示システムの映像を縮小して対象領域を確保する動作を示す斜視図である。FIG. 5A is a perspective view showing an operation of moving the main body of the same video display system to secure a target area, and FIG. 5B shows an operation of reducing the video of the same video display system to secure a target area. It is a perspective view. 図6は、同上の映像表示システムの投影部の動作モードを切り替えて対象領域を確保する動作を示す斜視図である。FIG. 6 is a perspective view showing an operation of switching the operation mode of the projection unit of the same image display system to secure the target area. 図7Aは、同上の映像表示システムの投影部が第1モードで動作中の斜視図、図7Bは、同上の映像表示システムの投影部が第2モードで動作中の斜視図である。FIG. 7A is a perspective view of the projection unit of the same video display system operating in the first mode, and FIG. 7B is a perspective view of the projection unit of the same video display system operating in the second mode. 図8は、同上の映像表示システムの動作例を示すフローチャートである。FIG. 8 is a flowchart showing an operation example of the same video display system. 図9は、同上の映像表示システムの本体部で台車を搬送する様子を示す斜視図である。FIG. 9 is a perspective view showing a state in which the dolly is conveyed by the main body of the above-mentioned video display system. 図10は、実施形態2に係る映像表示システムのブロック図である。FIG. 10 is a block diagram of the video display system according to the second embodiment.

(実施形態1)
(1)概要
本実施形態に係る映像表示システム10は、図1に示すように、例えば、空港施設、店舗、駅、及びホテル等、複数の人が出入りする施設に導入され、施設のユーザに対して映像Im1を表示するためのシステムである。
(Embodiment 1)
(1) Overview As shown in FIG. 1, the video display system 10 according to the present embodiment is introduced into a facility where a plurality of people enter and exit, such as an airport facility, a store, a station, and a hotel, and is used by users of the facility. On the other hand, it is a system for displaying the image Im1.

ここでいう「店舗」は、例えば、スーパーマーケット、百貨店、コンビニエンスストア、家電量販店、衣料品店、又はホームセンター等の小売店の店舗である。また、映像表示システムは、ショッピングモール又はショッピングセンターのように、複数の店舗(テナント)が入った施設に導入されてもよい。 The "store" here is, for example, a store of a retail store such as a supermarket, a department store, a convenience store, a consumer electronics mass retailer, a clothing store, or a home center. Further, the video display system may be introduced in a facility containing a plurality of stores (tenants) such as a shopping mall or a shopping center.

本実施形態では、映像表示システム10が空港施設に導入される場合を例に説明する。この映像表示システム10は、施設(ここでは空港施設)の床面F1等の投影面に、映像Im1を投影することによって、映像Im1を表示する。ここでいう「映像」は、図形、コンピュータグラフィックス、写真、文字、数字、及び記号等の少なくとも1つの要素を含む映像であって、2つ以上の要素の組み合わせを含む映像であってもよい。さらに、「映像」は、モノクロ映像及びカラー映像のいずれでもよく、静止画及び動画のいずれでもよい。映像表示システム10によって表示(投影)される映像Im1は、例えば、広告又は案内等のための映像である。すなわち、映像Im1は、一例として、文字のみからなる広告用の映像、又は矢印等の記号のみからなる案内用の映像等である。 In this embodiment, a case where the video display system 10 is introduced into an airport facility will be described as an example. The image display system 10 displays the image Im1 by projecting the image Im1 on a projection surface such as the floor surface F1 of the facility (here, the airport facility). The "video" referred to here is a video including at least one element such as a figure, computer graphics, a photograph, characters, numbers, and symbols, and may be a video including a combination of two or more elements. .. Further, the "video" may be either a monochrome video or a color video, and may be a still image or a moving image. The image Im1 displayed (projected) by the image display system 10 is, for example, an image for advertising or guidance. That is, the video Im1 is, for example, a video for advertisement consisting only of characters, a video for guidance consisting only of symbols such as arrows, and the like.

さらに、本実施形態では、映像表示システム10は、自律走行が可能なロボットである。そのため、映像表示システム10は、空港施設内を移動し、空港施設内の様々な場所において、投影面(例えば床面F1)に映像Im1を投影することが可能である。したがって、本実施形態に係る映像表示システム10によれば、空港施設の不特定のユーザに対して、例えば、広告又は案内のための情報を提示することが可能である。 Further, in the present embodiment, the video display system 10 is a robot capable of autonomous traveling. Therefore, the image display system 10 can move in the airport facility and project the image Im1 on the projection surface (for example, the floor surface F1) at various places in the airport facility. Therefore, according to the video display system 10 according to the present embodiment, it is possible to present, for example, information for advertisement or guidance to an unspecified user of the airport facility.

(2)構成
以下、本実施形態に係る映像表示システム10の構成について詳しく説明する。
(2) Configuration Hereinafter, the configuration of the video display system 10 according to the present embodiment will be described in detail.

映像表示システム10は、図1及び図2に示すように、本体部1と、投影部2と、検知部3と、を備える。また、本実施形態では、映像表示システム10は、制御回路4と、駆動部5と、搬送部6と、ヒューマンマシンインタフェース7(HMI:Human Machine Interface)と、を更に備える。本実形態では、投影部2、検知部3、制御回路4、駆動部5、搬送部6、及びヒューマンマシンインタフェース7は、いずれも本体部1に搭載されている。 As shown in FIGS. 1 and 2, the video display system 10 includes a main body unit 1, a projection unit 2, and a detection unit 3. Further, in the present embodiment, the video display system 10 further includes a control circuit 4, a drive unit 5, a transport unit 6, and a human machine interface 7 (HMI). In the present embodiment, the projection unit 2, the detection unit 3, the control circuit 4, the drive unit 5, the transfer unit 6, and the human-machine interface 7 are all mounted on the main body unit 1.

本体部1は、自律走行が可能なロボットである。本体部1は、投影面となる床面F1上を移動可能に構成されている。本体部1は、空港施設内に1台以上あればよく、空港施設の規模等に応じて複数台設けられていてもよい。本実施形態では、映像表示システム10の構成要素が全て本体部1に備わっており、個々の本体部1が独立した映像表示システム10を構成するので、本体部1が空港施設内に複数台あれば、空港施設内に複数の映像表示システム10が存在することになる。 The main body 1 is a robot capable of autonomous traveling. The main body 1 is configured to be movable on the floor surface F1 which is a projection surface. It is sufficient that one or more main body units 1 are provided in the airport facility, and a plurality of main body units 1 may be provided depending on the scale of the airport facility and the like. In the present embodiment, all the components of the video display system 10 are provided in the main body 1, and each main body 1 constitutes an independent video display system 10, so that there are a plurality of main bodies 1 in the airport facility. For example, there will be a plurality of video display systems 10 in the airport facility.

本体部1は、図1に示すように、基台11と、一対の支柱12と、操作盤13と、を備えている。 As shown in FIG. 1, the main body 1 includes a base 11, a pair of columns 12, and an operation panel 13.

基台11は、例えば、複数(例えば4つ)の車輪14(図1では1つの車輪のみを図示する)を有する。基台11の平面視の形状はV字状である。本実施形態では、基台11の(V字の)頂点部を本体部1の前端部とし、基台11の(V字の)二股に分かれた側の端部を本体部1の後端部として説明する。図1中の「前」、「後」、「左」、「右」、「上」、「下」を示す矢印は説明のために表記しているに過ぎず、実体を伴わない。また、これらの方向は映像表示システム10の使用時の方向を限定する趣旨ではない。 The base 11 has, for example, a plurality of (eg, four) wheels 14 (only one wheel is shown in FIG. 1). The shape of the base 11 in a plan view is V-shaped. In the present embodiment, the (V-shaped) apex of the base 11 is the front end of the main body 1, and the bifurcated end of the base 11 is the rear end of the main body 1. It is explained as. The arrows indicating "front", "rear", "left", "right", "top", and "bottom" in FIG. 1 are shown for the sake of explanation only and are not accompanied by substance. Further, these directions are not intended to limit the directions when the video display system 10 is used.

複数の車輪14の各々は、例えば、オムニホイール等の全方向移動型車輪である。駆動部5は、これら複数の車輪14をそれぞれ駆動する電動モータ、及び電動モータを駆動するドライバ回路等を含んでいる。駆動部5が、これら複数の車輪14の各々を個別に駆動することにより、基台11は全方向に移動可能となる。つまり、本体部1は、駆動部5によって駆動されて、空港施設の床面F1上を、前、後、左、右の全方位に移動可能である。駆動部5は、制御回路4(後述する移動制御部41及び自律制御部43)から入力される制御信号に基づいて、複数の車輪14の各々を制御信号に応じた回転方向及び回転速度で駆動する。 Each of the plurality of wheels 14 is an omnidirectional movable wheel such as an omni wheel. The drive unit 5 includes an electric motor for driving each of the plurality of wheels 14, a driver circuit for driving the electric motor, and the like. The drive unit 5 individually drives each of the plurality of wheels 14, so that the base 11 can move in all directions. That is, the main body 1 is driven by the drive 5 and can move on the floor surface F1 of the airport facility in all directions of front, back, left, and right. The drive unit 5 drives each of the plurality of wheels 14 in the rotation direction and rotation speed according to the control signal based on the control signals input from the control circuit 4 (movement control unit 41 and autonomous control unit 43 described later). do.

基台11の前端部の上面には、後述する台車100(図9参照)を搬送するための搬送部6が設けられている。搬送部6は、本実施形態では、一例として、台車100の後部を持ち上げることにより、台車100を保持する機構である。 On the upper surface of the front end portion of the base 11, a transport portion 6 for transporting the carriage 100 (see FIG. 9), which will be described later, is provided. In the present embodiment, the transport unit 6 is, as an example, a mechanism for holding the bogie 100 by lifting the rear portion of the bogie 100.

一対の支柱12は、基台11の後端部から上方に突出する。支柱12の上端部は、鉛直方向に対して傾斜している。操作盤13は、一対の支柱12の上端部間に跨るようにして、一対の支柱12にて支持されている。操作盤13には、例えば、タッチパネルディスプレイからなるヒューマンマシンインタフェース7が配置されている。ヒューマンマシンインタフェース7は、ユーザに対して表示及び音声等により情報を提示する出力部、ユーザからの入力を受け付ける入力部を兼ねている。 The pair of columns 12 project upward from the rear end of the base 11. The upper end of the support column 12 is inclined with respect to the vertical direction. The operation panel 13 is supported by the pair of columns 12 so as to straddle between the upper ends of the pair of columns 12. For example, a human-machine interface 7 composed of a touch panel display is arranged on the operation panel 13. The human-machine interface 7 also serves as an output unit that presents information to the user by display, voice, or the like, and an input unit that accepts input from the user.

ここで、基台11の前端部及び後端部には、基台11の側方に向けて開放された3つの開口部111が形成されている。これら3つの開口部111の各々の内部には、基台11の側方に露出する形で、センサユニット311が配置されている。さらに、基台11の上面にも、センサユニット311が2つ配置されている(図7A参照)。これら計5つのセンサユニット311は、測域センサ(Laser Range Scanner)31を構成する。測域センサ31は、複数(ここでは5つ)のセンサユニット311の各々から、レーザ光等の光を出射し、光の出射から反射光を受光するまでの時間に基づいて、本体部1の周辺に設定される検知エリア内の物体の有無、及び物体までの距離を測定する。測域センサ31は、複数(ここでは5つ)のセンサユニット311の各々からのレーザ光の照射方向を、床面F1と平行な平面内で連続的に変化させることによって、本体部1から見て360度の略全方位について物体の検知が可能である。 Here, at the front end portion and the rear end portion of the base 11, three openings 111 opened toward the side of the base 11 are formed. Inside each of these three openings 111, a sensor unit 311 is arranged so as to be exposed to the side of the base 11. Further, two sensor units 311 are also arranged on the upper surface of the base 11 (see FIG. 7A). These five sensor units 311 constitute a range finder (Laser Range Scanner) 31. The range sensor 31 emits light such as laser light from each of the plurality of (five in this case) sensor units 311 and is based on the time from the emission of the light to the reception of the reflected light of the main body 1. Measure the presence or absence of an object in the detection area set in the vicinity and the distance to the object. The range sensor 31 is viewed from the main body 1 by continuously changing the irradiation direction of the laser beam from each of the plurality of (five here) sensor units 311 in a plane parallel to the floor surface F1. It is possible to detect an object in almost all directions of 360 degrees.

また、操作盤13の上端部には、カメラ32が設けられている。カメラ32は、例えば、撮像素子とレンズ又は反射鏡等の光学系とを組み合わせて、全周方向を撮像可能に構成された全周カメラである。カメラ32は、本体部1において最も高い部位に配置されているので、本体部1自身による死角を少なくして、広範囲の画像を撮像することができる。つまり、カメラ32では、本体部1から見て360度の略全方位を撮像することが可能である。 A camera 32 is provided at the upper end of the operation panel 13. The camera 32 is, for example, an all-around camera configured to be capable of taking an all-around direction by combining an image pickup element and an optical system such as a lens or a reflector. Since the camera 32 is arranged at the highest portion of the main body 1, the blind spot caused by the main body 1 itself can be reduced to capture a wide range of images. That is, the camera 32 can capture a substantially omnidirectional image of 360 degrees when viewed from the main body 1.

また、本体部1に搭載された各部(後述する投影部2及び検知部3等を含む)の動作用電力は、本体部1に搭載されている充電式の電池15(図1参照)により確保される。電池15は、一例として、一対の支柱12の各々に設けられている。 Further, the operating power of each part (including the projection part 2 and the detection part 3 described later) mounted on the main body part 1 is secured by the rechargeable battery 15 (see FIG. 1) mounted on the main body part 1. Will be done. As an example, the battery 15 is provided on each of the pair of columns 12.

投影部2は、本体部1に搭載されている。投影部2は、本体部1の周囲に存在する投影面(例えば床面F1)に映像を投影するように構成されている。ここで、投影面は、本体部1の周囲、つまり本体部1の周りであって、少なくとも本体部1(投影部2)からの光が届く範囲、言い換えれば本体部1から視認可能な範囲に存在していればよく、本体部1の至近距離に存在する面に限らない。本体部1(投影部2)からの光が届く範囲にあれば、例えば、本体部1から数十〔m〕離れた位置にある天井面C1(図3参照)、壁面等であっても、本体部1の周囲に存在する投影面になり得る。本実施形態では、投影部2は、操作盤13の下端部に配置されており、一例として、本体部1の後方に向けて映像Im1を投影する。つまり、投影部2が床面F1に映像Im1を投影する場合には、本体部1の後方の床面F1に映像Im1が投影される。 The projection unit 2 is mounted on the main body unit 1. The projection unit 2 is configured to project an image on a projection surface (for example, a floor surface F1) existing around the main body unit 1. Here, the projection surface is around the main body 1, that is, around the main body 1, and is at least within a range where the light from the main body 1 (projection 2) can reach, in other words, a range visible from the main body 1. It suffices as long as it exists, and it is not limited to the surface existing at a close distance to the main body 1. As long as the light from the main body 1 (projection 2) can reach, for example, even if it is a ceiling surface C1 (see FIG. 3), a wall surface, or the like located several tens of [m] away from the main body 1. It can be a projection plane that exists around the main body 1. In the present embodiment, the projection unit 2 is arranged at the lower end portion of the operation panel 13, and as an example, the image Im1 is projected toward the rear of the main body unit 1. That is, when the projection unit 2 projects the image Im1 on the floor surface F1, the image Im1 is projected on the floor surface F1 behind the main body unit 1.

ここにおいて、投影面は、少なくとも第1面及び第2面を含む複数の面から選択される。第1面及び第2面は互いに面の向きが異なる面である。本実施形態では、一例として、第1面が空港施設の床面F1、第2面が空港施設の天井面C1であると仮定する。すなわち、投影部2からの映像Im1が投影される投影面には、少なくとも上方を向いた床面F1(第1面)、及び下方(鉛直方向)を向いた天井面C1(第2面)が含まれている。投影部2の動作モードは、第1面(床面F1)に映像Im1を投影する第1モードと、第2面(天井面C1)に映像Im1を投影する第2モードと、を有する。具体的には、投影部2は、モータ等の動力により投影部2の仰俯角を機械的に変化させる首振機構を有し、映像Im1(光)を出射する光学系(投影レンズ)の向きを上下方向に調節可能に構成されている。これにより、投影部2は、第1モードで動作中には光学系を下方に向けて、投影面としての床面F1に映像Im1を投影し、第2モードで動作中には光学系を上方に向けて、投影面としての天井面C1に映像Im1を投影する。 Here, the projection plane is selected from a plurality of planes including at least the first plane and the second plane. The first surface and the second surface are surfaces having different orientations from each other. In the present embodiment, as an example, it is assumed that the first surface is the floor surface F1 of the airport facility and the second surface is the ceiling surface C1 of the airport facility. That is, on the projection surface on which the image Im1 from the projection unit 2 is projected, at least the floor surface F1 (first surface) facing upward and the ceiling surface C1 (second surface) facing downward (vertical direction) are present. include. The operation mode of the projection unit 2 includes a first mode for projecting the image Im1 on the first surface (floor surface F1) and a second mode for projecting the image Im1 on the second surface (ceiling surface C1). Specifically, the projection unit 2 has a swing mechanism that mechanically changes the elevation / depression angle of the projection unit 2 by the power of a motor or the like, and the direction of the optical system (projection lens) that emits the image Im1 (light). Is configured to be adjustable in the vertical direction. As a result, the projection unit 2 directs the optical system downward during operation in the first mode, projects the image Im1 on the floor surface F1 as the projection surface, and raises the optical system during operation in the second mode. The image Im1 is projected onto the ceiling surface C1 as the projection surface.

詳しくは「(3.1)基本動作」の欄で説明するが、映像表示システム10は、基本的には投影部2を第1モードで動作させて、投影面としての床面F1(第1面)に映像Im1を投影する。そのため、以下では、特に断りが無い限り、投影面は床面F1であることとして説明する。一方、映像表示システム10は、所定の切替条件を満たした場合、投影部2を第2モードで動作させることにより、投影面としての天井面C1(第2面)に映像Im1を投影する。ただし、投影面は、床面F1及び天井面C1に限らず、例えば、壁面を含んでいてもよい。 The details will be described in the column of "(3.1) Basic operation", but the image display system 10 basically operates the projection unit 2 in the first mode, and the floor surface F1 (first) as the projection surface. The image Im1 is projected on the surface). Therefore, in the following, unless otherwise specified, the projection surface will be described as the floor surface F1. On the other hand, when the predetermined switching condition is satisfied, the image display system 10 projects the image Im1 on the ceiling surface C1 (second surface) as the projection surface by operating the projection unit 2 in the second mode. However, the projection surface is not limited to the floor surface F1 and the ceiling surface C1, and may include, for example, a wall surface.

検知部3は、投影面(床面F1)において、映像Im1を投影するための対象領域A1の状態を検知するように構成されている。ここで、検知部3は、少なくとも対象領域A1の状態が映像Im1を投影可能な状態か否かを検知する。ここでいう「対象領域」は、投影面のうちで投影部2から映像Im1が投影される領域を意味する。つまり、投影面のうちの対象領域A1が、実際に映像Im1が投影されるスクリーンとして機能し、投影面であっても対象領域A1以外の領域には投影部2からの映像Im1は投影されない。例えば、平面状の投影面に映像Im1を投影する場合、投影面上において、投影される映像Im1が収まるサイズの平面領域があれば、この平面領域が対象領域A1を構成する。 The detection unit 3 is configured to detect the state of the target region A1 for projecting the image Im1 on the projection surface (floor surface F1). Here, the detection unit 3 detects at least whether or not the state of the target area A1 is a state in which the image Im1 can be projected. The “target area” here means an area of the projection surface on which the image Im1 is projected from the projection unit 2. That is, the target area A1 of the projection surface functions as a screen on which the image Im1 is actually projected, and even if it is the projection surface, the image Im1 from the projection unit 2 is not projected on the area other than the target area A1. For example, when the image Im1 is projected on a planar projection surface, if there is a planar area on the projection surface having a size that accommodates the projected image Im1, this planar area constitutes the target area A1.

検知部3は、このような対象領域A1が、本体部1から見通せる状態にあれば、対象領域A1の状態が映像Im1を投影可能な状態にあると判断する。一方、本体部1と対象領域A1との間に何らかの障害物(人、小動物等の生物を含む)が存在し、対象領域A1が本体部1から見通せない状態にあれば、検知部3は、対象領域A1の状態が映像Im1を投影可能な状態にないと判断する。対象領域A1上に物体が存在する、又は対象領域A1の一部に凸部若しくは凹部があって、映像Im1を投影するための平面領域(空きスペース)が確保されない場合にも、検知部3は、対象領域A1の状態が映像Im1を投影可能な状態にないと判断する。よって、一例として、本体部1の周囲に人だかりができている場合等、映像Im1を投影するのに十分なスペースを本体部1の周囲の投影面(床面F1)上に確保できない状況であれば、対象領域A1の状態は映像Im1を投影可能な状態にないことがある。 If the target area A1 can be seen from the main body 1, the detection unit 3 determines that the state of the target area A1 is in a state where the image Im1 can be projected. On the other hand, if there is some obstacle (including organisms such as humans and small animals) between the main body 1 and the target area A1 and the target area A1 cannot be seen from the main body 1, the detection unit 3 will be able to see the target area A1. It is determined that the state of the target area A1 is not in a state where the image Im1 can be projected. Even when an object exists on the target area A1 or there is a convex portion or a concave portion in a part of the target area A1 and a flat area (empty space) for projecting the image Im1 is not secured, the detection unit 3 may be used. , It is determined that the state of the target area A1 is not in a state where the image Im1 can be projected. Therefore, as an example, even if there is a crowd around the main body 1 and sufficient space for projecting the image Im1 cannot be secured on the projection surface (floor surface F1) around the main body 1. For example, the state of the target area A1 may not be a state in which the image Im1 can be projected.

対象領域A1の状態が映像Im1を投影可能な状態にない場合には、映像表示システム10は、例えば、投影部2にて別の場所に映像Im1を投影したり、映像Im1の投影を中断したりすることが可能である。また、対象領域A1の状態が映像Im1を投影可能な状態にない場合に、映像表示システム10は、投影部2にて投影する映像Im1の大きさ又は形状等を変化させて、映像Im1を投影することも可能である。検知部3の検知結果に応じた、映像表示システム10の動作については、「(3.2)検知動作」の欄で詳しく説明する。 When the state of the target area A1 is not in a state where the image Im1 can be projected, the image display system 10 may, for example, project the image Im1 to another place by the projection unit 2 or interrupt the projection of the image Im1. It is possible to do it. Further, when the state of the target area A1 is not in a state where the image Im1 can be projected, the image display system 10 projects the image Im1 by changing the size or shape of the image Im1 projected by the projection unit 2. It is also possible to do. The operation of the video display system 10 according to the detection result of the detection unit 3 will be described in detail in the column of "(3.2) Detection operation".

本実施形態では、検知部3は、上述した測域センサ31及びカメラ32を含んでいる。つまり、検知部3は、測域センサ31で計測された本体部1の周辺の物体(人、小動物等の生物を含む)の有無、及び物体までの距離等の情報、さらに、カメラ32で撮像された本体部1の周辺の画像情報を利用可能である。検知部3は、これらの情報に基づいて、投影面(床面F1)において、映像Im1を投影するための対象領域A1を検知する。 In the present embodiment, the detection unit 3 includes the above-mentioned range sensor 31 and the camera 32. That is, the detection unit 3 captures information such as the presence / absence of an object (including living things such as humans and small animals) around the main body 1 measured by the range sensor 31, the distance to the object, and the like, and further, the camera 32 captures the image. The image information around the main body 1 can be used. Based on this information, the detection unit 3 detects the target area A1 for projecting the image Im1 on the projection surface (floor surface F1).

一例として、床面F1において本体部1の1.5〔m〕後方の地点を中心とする、半径0.5〔m〕の円形領域を対象領域A1とする場合、検知部3は、対象領域A1上、及び本体部1と対象領域A1との間の空間について、物体の有無を判断する。この空間に物体が存在しない場合、つまり、投影部2から対象領域A1が見通せる状態にある場合には、検知部3にて、対象領域A1の状態が映像Im1を投影可能な状態にあることが検知される。一方、この空間に物体が存在する場合、つまり、投影部2から対象領域A1が見通せない状態にある場合には、検知部3にて、対象領域A1の状態が映像Im1を投影可能な状態にないことが検知される。 As an example, when the target region A1 is a circular region having a radius of 0.5 [m] centered on a point 1.5 [m] behind the main body portion 1 on the floor surface F1, the detection unit 3 is the target region. The presence or absence of an object is determined on A1 and in the space between the main body 1 and the target area A1. When there is no object in this space, that is, when the target area A1 can be seen from the projection unit 2, the detection unit 3 may be in a state where the target area A1 can project the image Im1. Detected. On the other hand, when an object exists in this space, that is, when the target area A1 cannot be seen from the projection unit 2, the detection unit 3 changes the state of the target area A1 so that the image Im1 can be projected. It is detected that there is no such thing.

制御回路4は、移動制御部41と、投影制御部42と、自律制御部43と、映像生成部44と、視線誘導部45と、を有している。本実施形態では、制御回路4は、プロセッサ及びメモリを有するコンピュータシステムを主構成とする。コンピュータシステムのメモリに記録されたプログラムを、コンピュータシステムのプロセッサが実行することにより、移動制御部41、投影制御部42、自律制御部43、映像生成部44、及び視線誘導部45等の機能が実現される。プログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の記録媒体に記録されて提供されてもよい。 The control circuit 4 includes a movement control unit 41, a projection control unit 42, an autonomous control unit 43, a video generation unit 44, and a line-of-sight guidance unit 45. In the present embodiment, the control circuit 4 mainly comprises a computer system having a processor and a memory. By executing the program recorded in the memory of the computer system by the processor of the computer system, the functions of the movement control unit 41, the projection control unit 42, the autonomous control unit 43, the image generation unit 44, the line-of-sight guidance unit 45, and the like are performed. It will be realized. The program may be recorded in advance in a memory, may be provided through a telecommunication line such as the Internet, or may be recorded and provided on a recording medium such as a memory card.

移動制御部41は、対象領域A1の状態が映像Im1を投影可能な状態にない場合に、本体部1を移動させて対象領域A1の状態を映像Im1を投影可能な状態とするように、検知部3の検知結果に応じて、本体部1を制御する。すなわち、移動制御部41は、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にないことが検知される場合、対象面(床面F1)上の別の場所に対象領域A1を確保するように、本体部1自体を移動させる。具体的には、移動制御部41は、検知部3の検知結果を受けて、駆動部5に対して制御信号を出力し、制御信号により駆動部5を制御する。これにより、複数の車輪14が駆動部5にて駆動され、本体部1は、床面F1上を制御信号に従って移動する。ここで、移動制御部41は、検知部3の検知結果から、制御後の対象領域A1の状態を確認し、制御後の対象領域A1の状態が映像Im1を投影可能な状態となるように、本体部1の移動経路も含めて、駆動部5の制御内容を決定することが好ましい。 The movement control unit 41 detects that the state of the target area A1 is such that the image Im1 can be projected by moving the main body unit 1 when the state of the target area A1 is not in the state where the image Im1 can be projected. The main body unit 1 is controlled according to the detection result of the unit 3. That is, when the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the movement control unit 41 places the target area in another place on the target surface (floor surface F1). The main body 1 itself is moved so as to secure A1. Specifically, the movement control unit 41 receives the detection result of the detection unit 3, outputs a control signal to the drive unit 5, and controls the drive unit 5 by the control signal. As a result, the plurality of wheels 14 are driven by the drive unit 5, and the main body unit 1 moves on the floor surface F1 according to the control signal. Here, the movement control unit 41 confirms the state of the target area A1 after control from the detection result of the detection unit 3, so that the state of the target area A1 after control can project the image Im1. It is preferable to determine the control content of the drive unit 5 including the movement path of the main body unit 1.

投影制御部42は、対象領域A1の状態が映像Im1を投影可能な状態にない場合に、映像Im1の大きさ、形状、及び投影方向の少なくとも1つを変化させて、対象領域A1を確保するように、検知部3の検知結果に応じて、投影部2を制御する。すなわち、投影制御部42は、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にないことが検知される場合、対象面(床面F1)上の物体(障害物)を避けて対象領域A1を設定するように、投影される映像Im1を変形及び/又は移動させる。具体的には、投影制御部42は、検知部3の検知結果を受けて、投影部2に対して制御信号を出力し、制御信号により投影部2の光学系及び/又は駆動系を制御する。ここで、投影制御部42は、検知部3の検知結果から、制御後の対象領域A1の状態を確認し、制御後の対象領域A1の状態が映像Im1を投影可能な状態となるように、投影部2の制御内容を決定することが好ましい。 The projection control unit 42 secures the target area A1 by changing at least one of the size, shape, and projection direction of the image Im1 when the state of the target area A1 is not in a state where the image Im1 can be projected. As described above, the projection unit 2 is controlled according to the detection result of the detection unit 3. That is, when the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the projection control unit 42 detects an object (obstacle) on the target surface (floor surface F1). The projected image Im1 is deformed and / or moved so as to avoid and set the target area A1. Specifically, the projection control unit 42 receives the detection result of the detection unit 3, outputs a control signal to the projection unit 2, and controls the optical system and / or the drive system of the projection unit 2 by the control signal. .. Here, the projection control unit 42 confirms the state of the target area A1 after control from the detection result of the detection unit 3, so that the state of the target area A1 after control can project the image Im1. It is preferable to determine the control content of the projection unit 2.

自律制御部43は、本体部1が自律的に移動するように本体部1を制御する。具体的には、自律制御部43は、駆動部5に対して制御信号を出力し、制御信号により駆動部5を制御する。これにより、複数の車輪14が駆動部5にて駆動され、本体部1は、床面F1上を制御信号に従って移動する。自律制御部43は、例えば、ジャイロセンサ、及びGPS(Global Positioning System)の出力を用いて、本体部1の現在位置を推定する。自律制御部43による本体部1の現在位置の推定には、例えば、カメラ32で撮像された本体部1の周辺の画像情報等が更に用いられてもよい。自律制御部43は、少なくとも、本体部1の現在位置に基づいて、目的地までの本体部1の移動経路を決定し(経路計画)、この移動経路に沿って本体部1が移動するように本体部1(駆動部5)を制御する。ここで、自律制御部43は、検知部3の検知結果を用いて、本体部1(駆動部5)の制御を行うことが好ましい。これにより、本体部1の自律走行が実現される。 The autonomous control unit 43 controls the main body unit 1 so that the main body unit 1 moves autonomously. Specifically, the autonomous control unit 43 outputs a control signal to the drive unit 5 and controls the drive unit 5 by the control signal. As a result, the plurality of wheels 14 are driven by the drive unit 5, and the main body unit 1 moves on the floor surface F1 according to the control signal. The autonomous control unit 43 estimates the current position of the main body unit 1 by using, for example, a gyro sensor and the output of a GPS (Global Positioning System). For the estimation of the current position of the main body 1 by the autonomous control unit 43, for example, image information around the main body 1 captured by the camera 32 may be further used. The autonomous control unit 43 determines a movement route of the main body 1 to the destination at least based on the current position of the main body 1 (route planning), and causes the main body 1 to move along this movement route. The main body unit 1 (drive unit 5) is controlled. Here, it is preferable that the autonomous control unit 43 controls the main body unit 1 (drive unit 5) by using the detection result of the detection unit 3. As a result, autonomous traveling of the main body 1 is realized.

映像生成部44は、投影部2にて投影される映像Im1を生成する。ここでは、一例として、映像Im1は、図形及び文字の組み合わせからなる広告用の映像(静止画)であることと仮定する。さらに、本実施形態では、映像生成部44は、映像Im1が、本体部1の現在の位置に関連する内容と、本体部1の移動経路に関連する内容と、本体部1の姿勢に関連する内容との少なくとも1つを表すように、自律制御部43に連動して映像Im1を生成する。ここでいう本体部1の「姿勢」は、本体部1自体の向き及び投影部2が映像Im1を投影する向き等を含んでいる。 The image generation unit 44 generates the image Im1 projected by the projection unit 2. Here, as an example, it is assumed that the video Im1 is an advertising video (still image) composed of a combination of figures and characters. Further, in the present embodiment, in the image generation unit 44, the image Im1 is related to the content related to the current position of the main body unit 1, the content related to the movement path of the main body unit 1, and the posture of the main body unit 1. The video Im1 is generated in conjunction with the autonomous control unit 43 so as to represent at least one of the contents. The "posture" of the main body 1 here includes the direction of the main body 1 itself, the direction in which the projection 2 projects the image Im1, and the like.

一例として、映像生成部44で生成される映像Im1は、免税店Xの前では免税店Xに関する広告、免税店Yの前では免税店Yに関する広告となるように、本体部1の現在位置に関連して内容が変化する。さらに、映像生成部44は、本体部1の周辺に存在する人の属性情報(例えば年齢層及び性別等)に応じて、生成する映像Im1の内容を決定するリコメンド(recommend)機能を有していてもよい。 As an example, the image Im1 generated by the image generation unit 44 is located at the current position of the main body unit 1 so as to be an advertisement for the duty-free shop X in front of the duty-free shop X and an advertisement for the duty-free shop Y in front of the duty-free shop Y. The content changes in relation to it. Further, the video generation unit 44 has a recommend function for determining the content of the video Im1 to be generated according to the attribute information (for example, age group and gender) of the person existing around the main body unit 1. You may.

視線誘導部45は、投影部2によって投影される映像Im1に人の視線を誘導するための情報(以下、「誘導情報」ともいう)の提示を行う。視線誘導部45は、少なくとも投影部2の動作モードが第2モードである場合に、第2面(天井面C1)に視線を誘導するための誘導情報を提示するように構成されている。一例として、視線誘導部45は、本体部1の一対の支柱12の側面に設けられた発光部121(図7B参照)を制御することにより、誘導情報の提示を行う。視線誘導部45は、ヒューマンマシンインタフェース7又はその他のディスプレイにて、誘導情報を表示してもよいし、音声によって誘導情報を提示してもよい。 The line-of-sight guidance unit 45 presents information (hereinafter, also referred to as “guidance information”) for guiding a person's line of sight to the image Im1 projected by the projection unit 2. The line-of-sight guidance unit 45 is configured to present guidance information for guiding the line of sight to the second surface (ceiling surface C1) at least when the operation mode of the projection unit 2 is the second mode. As an example, the line-of-sight guidance unit 45 presents guidance information by controlling a light emitting unit 121 (see FIG. 7B) provided on the side surface of a pair of columns 12 of the main body unit 1. The line-of-sight guidance unit 45 may display guidance information on the human-machine interface 7 or other displays, or may present guidance information by voice.

また、映像表示システム10は、本体部1の周辺に存在する人の属性情報(例えば国籍等)に応じて、生成する映像Im1中の言語を決定するように構成されていることが好ましい。具体的には、映像生成部44は、本体部1の周辺に存在する人の属性情報(例えば国籍等)に応じて、生成する映像Im1中の言語を決定する言語切替機能を有している。これにより、一例として、本体部1の周辺に英語圏の人が多く存在する場合には、映像Im1中の言語が英語となり、本体部1の周辺に日本語圏の人が多く存在する場合には、映像Im1中の言語が日本語となる。リコメンド機能及び言語切替機能を実現するために、映像生成部44は、例えば、カメラ32で撮像された本体部1の周辺の画像情報等を用いてもよい。さらには、空港施設における本体部1の現在位置(例えば、到着ロビー又は出発ロビー)が既知であれば、到着便の出発地、又は出発便の目的地等の情報により、本体部1の周辺の人の国籍が推定可能である。したがって、映像表示システム10は、これら到着便の出発地、又は出発便の目的地等の情報を、属性情報として、言語切替機能に利用することも可能である。これら到着便の出発地、又は出発便の目的地等の情報は、例えば、本体部1が空港施設の管理システム等から通信により随時取得してもよいし、本体部1に予め記憶されている発着便スケジュールから判断してもよい。 Further, it is preferable that the video display system 10 is configured to determine the language in the video Im1 to be generated according to the attribute information (for example, nationality, etc.) of a person existing around the main body 1. Specifically, the video generation unit 44 has a language switching function for determining the language in the generated video Im1 according to the attribute information (for example, nationality, etc.) of a person existing around the main body unit 1. .. As a result, as an example, when there are many English-speaking people around the main body 1, the language in the video Im1 is English, and there are many Japanese-speaking people around the main body 1. The language in the video Im1 is Japanese. In order to realize the recommendation function and the language switching function, the image generation unit 44 may use, for example, image information around the main body unit 1 captured by the camera 32. Furthermore, if the current position of the main body 1 in the airport facility (for example, the arrival lobby or the departure lobby) is known, the area around the main body 1 can be obtained based on information such as the departure place of the arrival flight or the destination of the departure flight. The nationality of a person can be estimated. Therefore, the video display system 10 can also use information such as the departure place of the arrival flight or the destination of the departure flight as attribute information for the language switching function. Information such as the departure place of the arrival flight or the destination of the departure flight may be acquired by the main body 1 from the management system of the airport facility or the like at any time by communication, or is stored in the main body 1 in advance. It may be judged from the departure / arrival schedule.

また、上記言語切替機能と同様の言語の切り替えは、ヒューマンマシンインタフェース7についても適用可能である。すなわち、ヒューマンマシンインタフェース7がユーザに対して提示する表示及び音声等の情報、及びヒューマンマシンインタフェース7がユーザからの入力を受け付ける情報の言語は、本体部1の周辺に存在する人の属性情報に応じて決定されてもよい。さらに、視線誘導部45にて提示される誘導情報についても、上記言語切替機能と同様の言語の切り替えを適用可能である。 Further, the language switching similar to the language switching function can be applied to the human-machine interface 7. That is, the language of the information such as display and voice presented by the human-machine interface 7 to the user and the information of the information that the human-machine interface 7 accepts the input from the user is the attribute information of the person existing around the main body 1. It may be determined accordingly. Further, the same language switching as the language switching function can be applied to the guidance information presented by the line-of-sight guidance unit 45.

また、映像表示システム10は、上記以外の構成、例えば、電池15の充電回路、又は通信部等を適宜備えている。通信部は、本体部1に搭載されており、例えば、電波を用いた無線通信により、本体部1の外部の通信装置と双方向に通信を行う。 Further, the video display system 10 is appropriately provided with a configuration other than the above, for example, a charging circuit of the battery 15, a communication unit, or the like. The communication unit is mounted on the main body unit 1, and for example, it communicates bidirectionally with an external communication device of the main body unit 1 by wireless communication using radio waves.

(3)動作
以下、本実施形態に係る映像表示システム10の動作について説明する。
(3) Operation Hereinafter, the operation of the video display system 10 according to the present embodiment will be described.

(3.1)基本動作
映像表示システム10は、定常時には、基本動作として、図3に示すように、投影部2を第1モードで動作させて、投影面としての床面F1(第1面)に映像Im1を投影する。本体部1は、自律走行可能に構成されているので、空港施設内の様々な場所で、床面F1に映像Im1を投影することができる。このとき、床面F1において映像Im1が投影される領域が対象領域A1となる。ここでは一例として、床面F1において本体部1の1.5〔m〕後方の地点を中心とする、半径0.5〔m〕の円形領域を対象領域A1とし、対象領域A1に画面形状が円形状の映像Im1を表示する場合を例示する。
(3.1) Basic Operation In the steady state, the image display system 10 operates the projection unit 2 in the first mode as a basic operation as shown in FIG. 3, and the floor surface F1 (first surface) as the projection surface. ) Is projected onto the image Im1. Since the main body 1 is configured to be capable of autonomous travel, the image Im1 can be projected onto the floor surface F1 at various locations in the airport facility. At this time, the area on the floor surface F1 on which the image Im1 is projected becomes the target area A1. Here, as an example, a circular area having a radius of 0.5 [m] centered on a point 1.5 [m] behind the main body 1 on the floor surface F1 is set as the target area A1, and the screen shape is formed in the target area A1. An example is shown in which a circular image Im1 is displayed.

さらに、投影部2は、本体部1が定位置に停止した状態で映像Im1を投影する構成に限らず、本体部1の移動(自律走行)中に、映像Im1を投影してもよい。本体部1の移動中に映像Im1が投影される場合、本体部1の移動に伴って、対象領域A1が床面F1上を移動することになる。 Further, the projection unit 2 is not limited to the configuration in which the image Im1 is projected with the main body unit 1 stopped at a fixed position, and the image Im1 may be projected while the main body unit 1 is moving (autonomous traveling). When the image Im1 is projected while the main body 1 is moving, the target area A1 moves on the floor surface F1 as the main body 1 moves.

これにより、特定の人だけでなく、本体部1の周辺に位置する、つまり本体部1を取り巻くように位置する不特定の人から見えやすい映像を表示することが可能である。特に、表示される映像Im1が例えば広告等の映像である場合、少しでも多くの人の目に触れるように、特定の人だけでなく、不特定の人から見えやすい映像Im1を表示することが好ましい。 This makes it possible to display an image that is easy to see not only by a specific person but also by an unspecified person who is located around the main body 1, that is, is located so as to surround the main body 1. In particular, when the displayed image Im1 is, for example, an image such as an advertisement, it is possible to display an image Im1 that is easy to see not only by a specific person but also by an unspecified person so that as many people as possible can see it. preferable.

映像表示システム10は、映像Im1を常時表示(投影)する必要はなく、例えば、所定の時間帯、所定の場所に本体部1が存在する場合、又は本体部1の周辺に人が存在する場合等、特定の条件を満たす場合にのみ、映像Im1を表示してもよい。 The image display system 10 does not need to constantly display (project) the image Im1. For example, when the main body 1 is present at a predetermined time zone and a predetermined place, or when a person is present around the main body 1. The image Im1 may be displayed only when a specific condition is satisfied.

(3.2)検知動作
次に、検知部3の検知結果に応じた、映像表示システム10の動作について説明する。
(3.2) Detection operation Next, the operation of the video display system 10 according to the detection result of the detection unit 3 will be described.

すなわち、例えば、床面F1において本体部1の後方に円形領域からなる対象領域A1が、本体部1から見通せる場合、検知部3にて、対象領域A1の状態が映像Im1を投影可能な状態にあることが検知される。この場合、投影部2は「(3.1)基本動作」で説明したように、床面F1上の対象領域A1に映像Im1を投影する。 That is, for example, when the target area A1 consisting of a circular region behind the main body 1 on the floor surface F1 can be seen from the main body 1, the detection unit 3 can project the image Im1 in the state of the target area A1. It is detected that there is. In this case, the projection unit 2 projects the image Im1 onto the target area A1 on the floor surface F1 as described in “(3.1) Basic operation”.

一方、例えば、図4に示すように、床面F1において本体部1の後方に円形領域からなる対象領域A1上に人H1が存在する場合、本体部1から対象領域A1を見通せず、検知部3にて、対象領域A1の状態が映像Im1を投影可能な状態にないことが検知される。この場合、そのままの状態で投影部2が対象領域A1に映像Im1を投影しようとしても、投影部2からの光が対象領域A1上の人H1の足に遮られ、対象領域A1に映像Im1を投影することができない。図4では、投影部2が投影しようとしている映像Im1を想像線(二点鎖線)で表記している。検知部3での対象領域A1の状態の検知は、投影部2から映像Im1が投影されている状態で行われてもよいし、投影部2から映像Im1が投影される前に行われてもよい。本実施形態では一例として、投影部2から映像Im1が投影されている状態で、検知部3での対象領域A1の状態の検知が定期的に(例えば、1秒間隔で)行われることとする。 On the other hand, for example, as shown in FIG. 4, when the person H1 is present on the target area A1 formed of a circular area behind the main body 1 on the floor surface F1, the target area A1 cannot be seen from the main body 1 and the detection unit. At 3, it is detected that the state of the target area A1 is not in a state where the image Im1 can be projected. In this case, even if the projection unit 2 tries to project the image Im1 on the target area A1 in the same state, the light from the projection unit 2 is blocked by the foot of the person H1 on the target area A1 and the image Im1 is displayed on the target area A1. Cannot be projected. In FIG. 4, the image Im1 to be projected by the projection unit 2 is represented by an imaginary line (dashed-dotted line). The detection unit 3 may detect the state of the target area A1 in a state where the image Im1 is projected from the projection unit 2, or may be performed before the image Im1 is projected from the projection unit 2. good. In the present embodiment, as an example, it is assumed that the detection unit 3 periodically (for example, at 1-second intervals) detects the state of the target area A1 while the image Im1 is projected from the projection unit 2. ..

本実施形態に係る映像表示システム10では、対象領域A1の状態が映像Im1を投影可能な状態にない場合の動作として、複数パターンの動作が可能である。そこで、以下に、対象領域A1の状態が映像Im1を投影可能な状態にない場合の映像表示システム10の動作である、移動制御部41の動作、投影制御部42の動作、及び投影部2の動作モードの切り替え、の各々について説明する。 In the image display system 10 according to the present embodiment, a plurality of patterns can be operated as an operation when the state of the target area A1 is not in a state where the image Im1 can be projected. Therefore, below, the operation of the movement control unit 41, the operation of the projection control unit 42, and the operation of the projection unit 2, which are the operations of the image display system 10 when the state of the target area A1 is not in the state where the image Im1 can be projected. Each of the operation mode switching will be described.

(3.2.1)移動制御部
まず、移動制御部41の動作について説明する。
(3.2.1) Movement control unit First, the operation of the movement control unit 41 will be described.

対象領域A1の状態が映像Im1を投影可能な状態にないことが検知部3にて検知された場合、移動制御部41は、例えば、図5Aに示すように、本体部1を移動させて対象領域A1を確保する。図5Aでは、移動前の本体部1及び映像Im1を想像線(二点鎖線)で表記している。また、図5Aでは、本体部1の移動の向きを矢印で表記しているが、この矢印は説明のために表記しているに過ぎず、実体を伴わない。 When the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the movement control unit 41 moves the main body unit 1 to the target, for example, as shown in FIG. 5A. Secure area A1. In FIG. 5A, the main body portion 1 and the image Im1 before movement are represented by an imaginary line (dashed-dotted line). Further, in FIG. 5A, the direction of movement of the main body 1 is indicated by an arrow, but this arrow is indicated only for the sake of explanation and is not accompanied by an entity.

ここでは、移動制御部41は、検知部3の検知結果から、制御後の対象領域A1の状態を確認し、制御後の対象領域A1の状態が映像Im1を投影可能な状態となるように、本体部1の移動経路も含めて、駆動部5の制御内容を決定する。一例として、移動制御部41が、本体部1と本体部1の周辺の物体との現在の位置関係から、本体部1が現在の位置から左前方に1.2〔m〕移動すれば対象領域A1が確保できる、と判断した場合を想定する。この場合、移動制御部41は、図5Aに示すように、図4の状態から、本体部1を左前方に1.2〔m〕移動させることにより、映像Im1を投影するための対象領域A1が確保される。つまり、本体部1が移動すれば、これに伴って、床面F1上を対象領域A1も移動する。そして、移動後の対象領域A1の状態が映像Im1を投影可能な状態にあれば、結果的に、映像Im1を投影するための対象領域A1が確保されることになる。 Here, the movement control unit 41 confirms the state of the target area A1 after control from the detection result of the detection unit 3, so that the state of the target area A1 after control can project the image Im1. The control content of the drive unit 5 is determined including the movement path of the main body unit 1. As an example, if the movement control unit 41 moves 1.2 [m] to the left front from the current position due to the current positional relationship between the main body unit 1 and the objects around the main body unit 1, the target area It is assumed that A1 can be secured. In this case, as shown in FIG. 5A, the movement control unit 41 moves the main body unit 1 to the left front by 1.2 [m] from the state shown in FIG. 4, so that the target area A1 for projecting the image Im1 is projected. Is secured. That is, if the main body 1 moves, the target area A1 also moves on the floor surface F1. If the state of the target area A1 after the movement is in a state where the image Im1 can be projected, as a result, the target area A1 for projecting the image Im1 is secured.

(3.2.2)投影制御部
次に、投影制御部42の動作について説明する。
(3.2.2) Projection control unit Next, the operation of the projection control unit 42 will be described.

対象領域A1の状態が映像Im1を投影可能な状態にないことが検知部3にて検知された場合、投影制御部42は、例えば、図5Bに示すように、映像Im1の大きさ、形状、及び投影方向の少なくとも1つを変化させて、対象領域A1を確保する。図5Bでは、変化前の映像Im1を想像線(二点鎖線)で表記している。また、図5Bでは、映像Im1の大きさが変化する向きを矢印で表記しているが、この矢印は説明のために表記しているに過ぎず、実体を伴わない。 When the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the projection control unit 42 determines, for example, the size, shape, and shape of the image Im1 as shown in FIG. 5B. And at least one of the projection directions is changed to secure the target area A1. In FIG. 5B, the image Im1 before the change is represented by an imaginary line (dashed-dotted line). Further, in FIG. 5B, the direction in which the size of the image Im1 changes is indicated by an arrow, but this arrow is indicated only for the sake of explanation and is not accompanied by an entity.

ここでは、投影制御部42は、検知部3の検知結果から、制御後の対象領域A1の状態を確認し、制御後の対象領域A1の状態が映像Im1を投影可能な状態となるように、投影部2の制御内容を決定する。一例として、投影制御部42が、本体部1と本体部1の周辺の物体との現在の位置関係から、投影部2が投影する映像Im1を1/2のサイズに縮小すれば対象領域A1が確保できる、と判断した場合を想定する。この場合、投影制御部42は、図5Bに示すように、図4の状態から、映像Im1を1/2のサイズに縮小させることにより、映像Im1を投影するための対象領域A1が確保される。つまり、投影部2が投影する映像Im1の大きさ、形状、及び投影方向の少なくとも1つが変化すれば、これに伴って、映像Im1を投影するための対象領域A1の大きさ、形状、及び位置の少なくとも1つも変化する。そして、変化後の対象領域A1の状態が映像Im1を投影可能な状態にあれば、結果的に、映像Im1を投影するための対象領域A1が確保されることになる。 Here, the projection control unit 42 confirms the state of the target area A1 after control from the detection result of the detection unit 3, so that the state of the target area A1 after control can project the image Im1. The control content of the projection unit 2 is determined. As an example, if the projection control unit 42 reduces the image Im1 projected by the projection unit 2 to the size of 1/2 from the current positional relationship between the main body unit 1 and the objects around the main body unit 1, the target area A1 becomes. It is assumed that it can be secured. In this case, as shown in FIG. 5B, the projection control unit 42 reduces the image Im1 to a size of 1/2 from the state of FIG. 4, thereby securing the target area A1 for projecting the image Im1. .. That is, if at least one of the size, shape, and projection direction of the image Im1 projected by the projection unit 2 changes, the size, shape, and position of the target area A1 for projecting the image Im1 are accompanied by the change. At least one of them changes. Then, if the state of the target area A1 after the change is in a state where the image Im1 can be projected, as a result, the target area A1 for projecting the image Im1 is secured.

また、映像Im1の形状を変化させる場合の具体例として、投影制御部42は、例えば、本体部1の前後方向に長い映像Im1を、本体部1の左右方向に長い映像Im1に変化させることも可能である。投影制御部42は、円形状の映像Im1を、長方形状の映像Im1に変化させること等も可能である。 Further, as a specific example of changing the shape of the image Im1, the projection control unit 42 may change, for example, the image Im1 long in the front-rear direction of the main body 1 into the image Im1 long in the left-right direction of the main body 1. It is possible. The projection control unit 42 can also change the circular image Im1 into a rectangular image Im1 and the like.

(3.2.3)動作モードの切り替え
次に、投影部2の動作モードの切り替えについて説明する。
(3.2.3) Switching of operation mode Next, switching of the operation mode of the projection unit 2 will be described.

対象領域A1の状態が映像Im1を投影可能な状態にないことが検知部3にて検知された場合、投影部2は、図6に示すように、床面F1を投影面とする第1モードから天井面C1を投影面とする第2モードに動作モードを切り替えて、対象領域A1を確保する。図6では、動作モードの切り替え前の映像Im1を想像線(二点鎖線)で表記している。また、図6では、映像Im1の投影方向が変化する向きを矢印で表記しているが、この矢印は説明のために表記しているに過ぎず、実体を伴わない。 When the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the projection unit 2 has the first mode in which the floor surface F1 is the projection surface, as shown in FIG. The operation mode is switched to the second mode in which the ceiling surface C1 is the projection surface, and the target area A1 is secured. In FIG. 6, the image Im1 before switching the operation mode is represented by an imaginary line (dashed-dotted line). Further, in FIG. 6, the direction in which the projection direction of the image Im1 changes is indicated by an arrow, but this arrow is indicated only for the sake of explanation and is not accompanied by an entity.

すなわち、映像表示システム10は、基本的には投影部2を第1モードで動作させて、投影面としての床面F1(第1面)に映像Im1を投影している。この状態で、対象領域A1の状態が映像Im1を投影可能な状態にないことが検知部3にて検知されると、映像表示システム10は、投影部2の動作モードを第2モードに切り替えて、投影面としての天井面C1(第2面)に映像Im1を投影する。要するに、対象領域A1の状態が映像Im1を投影可能な状態にないこと、を所定の切替条件とし、対象領域A1の状態が映像Im1を投影可能な状態にないことが検知部3にて検知されると、投影部2は、切替条件を満たしたこととして動作モードを切り替える。したがって、投影面が床面F1から天井面C1に変更されることになり、変更後の投影面(天井面C1)において対象領域A1の状態が映像Im1を投影可能な状態にあれば、結果的に、映像Im1を投影するための対象領域A1が確保されることになる。 That is, the image display system 10 basically operates the projection unit 2 in the first mode to project the image Im1 on the floor surface F1 (first surface) as the projection surface. In this state, when the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, the image display system 10 switches the operation mode of the projection unit 2 to the second mode. , The image Im1 is projected on the ceiling surface C1 (second surface) as the projection surface. In short, the detection unit 3 detects that the state of the target area A1 is not in the state where the image Im1 can be projected, and the state of the target area A1 is not in the state where the image Im1 can be projected. Then, the projection unit 2 switches the operation mode on the assumption that the switching condition is satisfied. Therefore, the projection surface is changed from the floor surface F1 to the ceiling surface C1, and if the state of the target area A1 on the changed projection surface (ceiling surface C1) is in a state where the image Im1 can be projected, the result is In addition, the target area A1 for projecting the image Im1 is secured.

ところで、投影部2の動作モードが急に切り替わり、投影面が床面F1(第1面)から天井面C1(第2面)に切り替わると、天井面C1に映像Im1が投影されていることに、本体部1の周辺の人が気付きにくいことが考えられる。そこで、本実施形態では、視線誘導部45が、少なくとも投影部2の動作モードが第2モードである場合に、第2面(天井面C1)に視線を誘導するための誘導情報を提示する。 By the way, when the operation mode of the projection unit 2 is suddenly switched and the projection surface is switched from the floor surface F1 (first surface) to the ceiling surface C1 (second surface), the image Im1 is projected on the ceiling surface C1. , It is considered that it is difficult for people around the main body 1 to notice. Therefore, in the present embodiment, the line-of-sight guidance unit 45 presents guidance information for guiding the line of sight to the second surface (ceiling surface C1) at least when the operation mode of the projection unit 2 is the second mode.

具体的には、投影部2の動作モードが第1モードである間は、図7Aに示すように、視線誘導部45は特に誘導情報の提示(表示)を行わない。これに対して、投影部2の動作モードが第2モードである間については、視線誘導部45は、図7Bに示すように、第2面(天井面C1)に投影される映像Im1に人の視線を誘導するための誘導情報を発光部121にて提示(表示)する。図7Bの例では、本体部1の一対の支柱12の各側面に、複数の発光部121が設けられている。複数の発光部121の各々は、第2面(天井面C1)を指し示すように、上方に向いた矢印の形状に構成されている。 Specifically, as shown in FIG. 7A, the line-of-sight guidance unit 45 does not particularly present (display) guidance information while the operation mode of the projection unit 2 is the first mode. On the other hand, while the operation mode of the projection unit 2 is the second mode, the line-of-sight guidance unit 45 displays a person on the image Im1 projected on the second surface (ceiling surface C1) as shown in FIG. 7B. Guidance information for guiding the line of sight of the above is presented (displayed) by the light emitting unit 121. In the example of FIG. 7B, a plurality of light emitting portions 121 are provided on each side surface of the pair of columns 12 of the main body portion 1. Each of the plurality of light emitting units 121 is configured in the shape of an arrow pointing upward so as to point to the second surface (ceiling surface C1).

したがって、投影部2の動作モードが第1モードから第2モードに切り替わると、発光部121が点灯して、第2面(天井面C1)に投影される映像Im1に人の視線を誘導できる。視線誘導部45は、上下方向に並ぶ複数の発光部121を下方から順次点灯させる連鎖式点灯(シーケンシャル点灯)により、誘導情報を提示(表示)してもよい。 Therefore, when the operation mode of the projection unit 2 is switched from the first mode to the second mode, the light emitting unit 121 is turned on and the line of sight of a person can be guided to the image Im1 projected on the second surface (ceiling surface C1). The line-of-sight guidance unit 45 may present (display) guidance information by chain lighting (sequential lighting) in which a plurality of light emitting units 121 arranged in the vertical direction are sequentially lit from below.

(3.2.4)小括
上述のように、映像表示システム10では、対象領域A1の状態が映像Im1を投影可能な状態にない場合、移動制御部41の動作、投影制御部42の動作、及び投影部2の動作モードの切り替え、の少なくとも1つが実行される。これにより、映像Im1を投影するための対象領域A1が確保されることになる。
(3.2.4) Summary As described above, in the image display system 10, when the state of the target area A1 is not in a state where the image Im1 can be projected, the operation of the movement control unit 41 and the operation of the projection control unit 42. , And switching of the operation mode of the projection unit 2, at least one of them is executed. As a result, the target area A1 for projecting the image Im1 is secured.

例えば、本体部1の周囲に存在する床面F1を投影面として映像Im1を投影する場合には、専用のスクリーンに映像を投影する投影する場合と異なり、床面F1上に存在する人の数及び位置等が変化し、投影面(床面F1)の状態が変化することが往々にある。そのため、投影面上に十分な対象領域A1を確保できない場合には、対象領域A1に投影される映像Im1の少なくとも一部が欠けたり、歪んだりして、正常な映像Im1が表示されないことがある。 For example, when the image Im1 is projected using the floor surface F1 existing around the main body 1 as a projection surface, the number of people existing on the floor surface F1 is different from the case where the image is projected on a dedicated screen. And the position and the like change, and the state of the projection surface (floor surface F1) often changes. Therefore, if a sufficient target area A1 cannot be secured on the projection surface, at least a part of the image Im1 projected on the target area A1 may be chipped or distorted, and the normal image Im1 may not be displayed. ..

本実施形態に係る映像表示システム10では、本体部1の周囲に存在する投影面(床面F1等)において、映像Im1を投影するための対象領域A1の状態を検知部3にて検知している。そのため、一例として、本体部1の周囲に人だかりができている場合等、床面F1からなる投影面において映像Im1を投影するのに十分な対象領域A1を確保できない場合、映像表示システム10は、別の場所に映像Im1を投影する等の措置をとることができる。したがって、本実施形態に係る映像表示システム10によれば、不特定の人から、より一層見えやすい映像を表示することができる。 In the image display system 10 according to the present embodiment, the detection unit 3 detects the state of the target area A1 for projecting the image Im1 on the projection surface (floor surface F1 or the like) existing around the main body unit 1. There is. Therefore, as an example, when a target area A1 sufficient for projecting the image Im1 cannot be secured on the projection surface made of the floor surface F1, such as when there is a crowd around the main body 1, the image display system 10 may use the image display system 10. Measures such as projecting the image Im1 on another location can be taken. Therefore, according to the video display system 10 according to the present embodiment, it is possible to display a video that is even easier to see from an unspecified person.

ところで、対象領域A1の状態が映像Im1を投影可能な状態にない場合の動作として、上述のように複数パターン(ここでは3パターン)の動作がある場合、これら複数パターンの動作には、優先順位が設定されていることが好ましい。本実施形態では一例として、移動制御部41の動作、投影制御部42の動作、及び投影部2の動作モードの切り替え、の順に優先順位が低くなることと仮定する。この場合における映像表示システム10の映像Im1の投影時の動作について、図8のフローチャートを参照して説明する。 By the way, when there is an operation of a plurality of patterns (here, 3 patterns) as an operation when the state of the target area A1 is not in a state where the image Im1 can be projected, the operation of these multiple patterns has a priority. Is preferably set. In the present embodiment, as an example, it is assumed that the priority is lowered in the order of the operation of the movement control unit 41, the operation of the projection control unit 42, and the switching of the operation mode of the projection unit 2. The operation of the image display system 10 at the time of projection of the image Im1 in this case will be described with reference to the flowchart of FIG.

すなわち、映像表示システム10は、映像Im1の投影動作が開始すると、まず投影部2を第1モードで動作させ、投影面である床面F1(第1面)への映像Im1の投影を開始する(S1)。この状態において、映像表示システム10は、映像Im1が投影される対象領域A1の状態を検知部3にて検知する(S2)。このとき、検知部3で検知される対象領域A1の状態が、映像Im1を投影可能な状態にあれば(S2:Yes)、投影部2は、映像Im1の投影を継続する(S9)。 That is, when the projection operation of the image Im1 is started, the image display system 10 first operates the projection unit 2 in the first mode, and starts the projection of the image Im1 on the floor surface F1 (first surface) which is the projection surface. (S1). In this state, the image display system 10 detects the state of the target area A1 on which the image Im1 is projected by the detection unit 3 (S2). At this time, if the state of the target area A1 detected by the detection unit 3 is in a state where the image Im1 can be projected (S2: Yes), the projection unit 2 continues the projection of the image Im1 (S9).

ステップS2で検知される対象領域A1の状態が、映像Im1を投影可能な状態になければ(S2:No)、移動制御部41が本体部1を移動させて対象領域A1を確保する(S3)。その後、映像表示システム10は、映像Im1が投影される対象領域A1の状態を検知部3にて検知する(S4)。このとき、検知部3で検知される対象領域A1の状態が、映像Im1を投影可能な状態にあれば(S4:Yes)、投影部2は、映像Im1の投影を継続する(S9)。 If the state of the target area A1 detected in step S2 is not in a state where the image Im1 can be projected (S2: No), the movement control unit 41 moves the main body unit 1 to secure the target area A1 (S3). .. After that, the video display system 10 detects the state of the target region A1 on which the video Im1 is projected by the detection unit 3 (S4). At this time, if the state of the target region A1 detected by the detection unit 3 is in a state where the image Im1 can be projected (S4: Yes), the projection unit 2 continues the projection of the image Im1 (S9).

ステップS4で検知される対象領域A1の状態が、映像Im1を投影可能な状態になければ(S4:No)、投影制御部42が映像Im1の大きさ及び/又は形状を変化させて、対象領域A1を確保する(S5)。つまり、投影制御部42は、映像Im1の大きさ、形状、及び投影方向の少なくとも1つ(ここでは、映像Im1の大きさ及び/又は形状とする)を変化させる。その後、映像表示システム10は、映像Im1が投影される対象領域A1の状態を検知部3にて検知する(S6)。このとき、検知部3で検知される対象領域A1の状態が、映像Im1を投影可能な状態にあれば(S6:Yes)、投影部2は、映像Im1の投影を継続する(S9)。 If the state of the target area A1 detected in step S4 is not in a state where the image Im1 can be projected (S4: No), the projection control unit 42 changes the size and / or shape of the image Im1 to change the target area. Secure A1 (S5). That is, the projection control unit 42 changes at least one of the size, shape, and projection direction of the image Im1 (here, the size and / or shape of the image Im1). After that, the video display system 10 detects the state of the target region A1 on which the video Im1 is projected by the detection unit 3 (S6). At this time, if the state of the target area A1 detected by the detection unit 3 is in a state where the image Im1 can be projected (S6: Yes), the projection unit 2 continues the projection of the image Im1 (S9).

ステップS6で検知される対象領域A1の状態が、映像Im1を投影可能な状態になければ(S6:No)、投影部2は動作モードを第1モードから第2モードに切り替える(S7)。つまり、投影部2は、投影面である天井面C1(第2面)への映像Im1の投影を開始する。このとき、視線誘導部45が、天井面C1に視線を誘導するための誘導情報を提示(表示)することにより、本体部1の周辺の人の視線を天井面C1に投影された映像Im1に誘導(視線誘導)する(S8)。そして、投影部2は、映像Im1の投影を継続する(S9)。 If the state of the target area A1 detected in step S6 is not in a state where the image Im1 can be projected (S6: No), the projection unit 2 switches the operation mode from the first mode to the second mode (S7). That is, the projection unit 2 starts projecting the image Im1 on the ceiling surface C1 (second surface) which is the projection surface. At this time, the line-of-sight guidance unit 45 presents (displays) guidance information for guiding the line of sight to the ceiling surface C1, so that the line of sight of a person around the main body 1 is projected onto the ceiling surface C1. Guidance (line-of-sight guidance) is performed (S8). Then, the projection unit 2 continues the projection of the image Im1 (S9).

映像表示システム10は、映像Im1の投影動作を継続中は、上記S1~S9の処理を定期的に繰り返し行う。 The image display system 10 periodically repeats the processes S1 to S9 while the projection operation of the image Im1 is continued.

ただし、図8のフローチャートは映像表示システム10の動作の一例に過ぎず、移動制御部41の動作、投影制御部42の動作、及び投影部2の動作モードの切り替え、の優先順位は適宜変更可能である。例えば、投影制御部42の動作、移動制御部41の動作、及び投影部2の動作モードの切り替え、の順に優先順位が低くなってもよい。 However, the flowchart of FIG. 8 is only an example of the operation of the video display system 10, and the priority order of the operation of the movement control unit 41, the operation of the projection control unit 42, and the switching of the operation mode of the projection unit 2 can be changed as appropriate. Is. For example, the priority may be lowered in the order of the operation of the projection control unit 42, the operation of the movement control unit 41, and the switching of the operation mode of the projection unit 2.

(3.3)台車搬送動作
本実施形態に係る映像表示システム10は、図9に示すように、本体部1にて台車100(カート、荷車)を搬送する機能を有している。要するに、映像表示システム10は、映像Im1の表示(投影)と、台車100の搬送と、の2つの機能を有している。本実施形態では、映像表示システム10が空港施設で使用されることを想定しているため、搬送対象となる台車100は、例えば、空港施設で使用されている手荷物用の荷物カートである。
(3.3) Cart Transport Operation The video display system 10 according to the present embodiment has a function of transporting a cart 100 (cart, cart) by the main body 1 as shown in FIG. In short, the image display system 10 has two functions of displaying (projecting) the image Im1 and transporting the trolley 100. In the present embodiment, since it is assumed that the video display system 10 is used in the airport facility, the trolley 100 to be transported is, for example, a baggage cart for baggage used in the airport facility.

本実施形態では、図9に示すように、本体部1に設けられた搬送部6が、一例として、台車100の後部を持ち上げることにより、台車100を保持するように構成されている。図9の例では、本体部1の前方に位置する台車100を、本体部1が後方から押すようにして搬送する。したがって、映像表示システム10では、搬送部6が台車100を保持した状態で、本体部1が自律走行することにより、台車100の搬送を行うことが可能である。 In the present embodiment, as shown in FIG. 9, the transport unit 6 provided in the main body 1 is configured to hold the bogie 100 by lifting the rear portion of the bogie 100 as an example. In the example of FIG. 9, the carriage 100 located in front of the main body 1 is conveyed so as to be pushed by the main body 1 from the rear. Therefore, in the video display system 10, the carriage 100 can be conveyed by the main body 1 autonomously traveling while the transport unit 6 holds the carriage 100.

台車100の搬送動作には、大別して、使用されていない台車100を所定の場所に搬送する回収モードと、台車100のユーザを追従して台車100を搬送する追従モードと、の2つの動作モードがある。回収モード及び追従モードのいずれであっても、本体部1は、自律制御部43により制御され、自律的に移動する。追従モードにおいては、自律制御部43は、検知部3の検知結果等を利用して、先行するユーザの後を追いかけるように本体部1を移動させる。 The transport operation of the trolley 100 is roughly divided into two operation modes: a collection mode in which the unused trolley 100 is transported to a predetermined place, and a follow-up mode in which the user of the trolley 100 is followed and the trolley 100 is transported. There is. In either the recovery mode or the follow-up mode, the main body unit 1 is controlled by the autonomous control unit 43 and moves autonomously. In the follow-up mode, the autonomous control unit 43 uses the detection result of the detection unit 3 or the like to move the main body unit 1 so as to follow the preceding user.

回収モードにおいては、本体部1は、例えば、空港施設又は駐車場等に放置されている台車100を、カート置場等の所定の場所に搬送する。これにより、台車100の回収に掛かる人(空港職員等)の手間を低減できる。追従モードにおいては、本体部1は、台車100のユーザの動きに追従するように移動し、台車100のユーザの代わりに台車100を運ぶ。これにより、例えば、子供を抱えている、又は両手に荷物を持っている等、両手が塞がっている状態のユーザに代えて、台車100を搬送することができ、ユーザにとっての利便性が向上する。 In the collection mode, the main body 1 transports, for example, a dolly 100 left in an airport facility, a parking lot, or the like to a predetermined place such as a cart storage place. As a result, it is possible to reduce the time and effort required for the person (airport staff, etc.) to collect the trolley 100. In the follow-up mode, the main body 1 moves so as to follow the movement of the user of the dolly 100, and carries the dolly 100 in place of the user of the dolly 100. As a result, the dolly 100 can be transported in place of a user whose hands are closed, such as holding a child or holding luggage in both hands, which improves convenience for the user. ..

ところで、本実施形態に係る映像表示システム10では、投影部2は、少なくとも搬送部6(本体部1)が台車100の搬送を行っていない待機期間において、対象領域A1に映像Im1を投影するように構成されている。 By the way, in the image display system 10 according to the present embodiment, the projection unit 2 projects the image Im1 on the target area A1 at least during the standby period in which the transport unit 6 (main body unit 1) does not transport the carriage 100. It is configured in.

すなわち、上述したように、本体部1が台車100を搬送する機能を有する場合でも、本体部1は、常に台車100を搬送するのではなく、搬送対象となる台車100が無ければ台車100の搬送は行われない。本実施形態では、このように搬送部6(本体部1)が台車100の搬送を行っていない待機期間において、本体部1を有効に利用するべく、本体部1に搭載された投影部2にて映像Im1を投影する。これにより、台車100の搬送を行っている搬送期間は勿論のこと、台車100の搬送を行っていない待機期間についても、空港施設内を自律移動する本体部1を有効に利用することができる。 That is, as described above, even if the main body 1 has a function of transporting the trolley 100, the main body 1 does not always transport the trolley 100, but if there is no trolley 100 to be transported, the trolley 100 is transported. Is not done. In the present embodiment, in order to effectively utilize the main body 1 during the standby period during which the transport unit 6 (main body 1) is not transporting the carriage 100, the projection unit 2 mounted on the main body 1 is used. The image Im1 is projected. As a result, the main body 1 that autonomously moves in the airport facility can be effectively used not only during the transportation period during which the carriage 100 is being transported but also during the waiting period during which the carriage 100 is not being transported.

ただし、投影部2は、少なくとも待機期間に映像Im1を投影すればよく、待機期間にのみ映像Im1を投影してもよいし、待機期間及び搬送期間の両方において映像Im1を投影してもよい。 However, the projection unit 2 may project the image Im1 at least during the waiting period, may project the image Im1 only during the waiting period, or may project the image Im1 during both the waiting period and the transport period.

(3.4)案内動作
本実施形態に係る映像表示システム10は、本体部1にて、空港施設のユーザに対する案内(道案内等)を行う機能を有している。すなわち、本体部1がユーザに先行して目的地までの移動経路を移動し、かつ投影部2にて案内用の映像Im1を投影することにより、映像表示システム10は、本体部1の後ろを歩くユーザを目的地まで案内することが可能である。
(3.4) Guidance operation The video display system 10 according to the present embodiment has a function of providing guidance (direction guidance, etc.) to the user of the airport facility in the main body 1. That is, the main body 1 moves the movement route to the destination ahead of the user, and the projection 2 projects the guidance image Im1, so that the video display system 10 moves behind the main body 1. It is possible to guide the walking user to the destination.

この場合、本体部1は、自律制御部43により制御され、自律的に移動する。例えば、ヒューマンマシンインタフェース7にてユーザが所望する目的地が入力されると、自律制御部43は、目的地までの移動経路を決定する(経路計画)。自律制御部43は、経路計画で決定された移動経路に沿って本体部1が移動するように本体部1(駆動部5)を制御する。 In this case, the main body unit 1 is controlled by the autonomous control unit 43 and moves autonomously. For example, when a destination desired by the user is input by the human-machine interface 7, the autonomous control unit 43 determines a movement route to the destination (route planning). The autonomous control unit 43 controls the main body unit 1 (drive unit 5) so that the main body unit 1 moves along the movement path determined by the route plan.

このとき、映像生成部44は、経路計画で決定された移動経路に関連する内容の映像Im1を生成することが好ましい。具体例としては、映像生成部44は、「次の角で右折」、及び「50〔m〕直進」等のテキスト文を含む映像Im1を生成する。 At this time, it is preferable that the image generation unit 44 generates the image Im1 having the content related to the movement route determined by the route plan. As a specific example, the image generation unit 44 generates an image Im1 including a text sentence such as "turn right at the next corner" and "go straight ahead".

また、映像生成部44で生成される映像Im1は、本体部1の姿勢に関連して内容が変化してもよい。例えば、本体部1の移動経路を映像Im1中の矢印にて示すような場合、進行方向に対して本体部1がどの方向を向いているかによって、ユーザからの矢印の見え方が変わることがある。具体例として、映像Im1の矢印が直進を示す場合、本体部1が進行方向に対して右方を向くと、ユーザからは矢印が直進ではなく右折を示しているように見える。このような場合、映像生成部44で生成される映像Im1は、例えば、本体部1の向きによって内容が変更される等、本体部1の姿勢に関連する内容であることが好ましい。 Further, the content of the image Im1 generated by the image generation unit 44 may change in relation to the posture of the main body unit 1. For example, when the movement path of the main body 1 is indicated by an arrow in the image Im1, the appearance of the arrow from the user may change depending on which direction the main body 1 is facing with respect to the traveling direction. .. As a specific example, when the arrow of the image Im1 indicates a straight line, when the main body 1 points to the right with respect to the traveling direction, the user appears that the arrow indicates a right turn instead of a straight line. In such a case, the video Im1 generated by the video generation unit 44 is preferably content related to the posture of the main body unit 1, for example, the content is changed depending on the orientation of the main body unit 1.

(4)変形例
実施形態1は、本発明の様々な実施形態の一つに過ぎない。実施形態1は、本発明の目的を達成できれば、設計等に応じて種々の変更が可能である。また、映像表示システム10と同様の機能は、映像表示方法、コンピュータプログラム、又はコンピュータプログラムを記録した記録媒体等で具現化されてもよい。
(4) Modification Example 1 is only one of various embodiments of the present invention. The first embodiment can be modified in various ways depending on the design and the like as long as the object of the present invention can be achieved. Further, the same function as that of the video display system 10 may be realized by a video display method, a computer program, a recording medium on which a computer program is recorded, or the like.

以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。 Hereinafter, modified examples of the first embodiment are listed. The modifications described below can be applied in combination as appropriate.

実施形態1では、投影部2が床面F1等の建造物の構造面を投影面とする場合について説明したが、この例に限らず、投影面は本体部1の周囲に存在する面であればよい。例えば、投影部2は、屋外の地面(地表面)、又は建造物の外壁面等を投影面として、投影面に映像Im1を投影してもよい。また、投影面は、平面に限らず、例えば、湾曲面等、所定の凹凸を有する立体面であってもよい。投影面が立体面である場合には、投影部2は、3Dプロジェクションマッピング技術を用いて、投影面に3次元映像を投影することが可能である。さらに、投影部2は、専用のスクリーンの表面を投影面として、スクリーンの表面に映像を投影してもよい。 In the first embodiment, the case where the projection unit 2 uses the structural surface of a building such as the floor surface F1 as the projection surface has been described, but the present invention is not limited to this example, and the projection surface may be a surface existing around the main body unit 1. Just do it. For example, the projection unit 2 may project the image Im1 on the projection surface with the outdoor ground (ground surface), the outer wall surface of the building, or the like as the projection surface. Further, the projection surface is not limited to a flat surface, and may be a three-dimensional surface having predetermined unevenness such as a curved surface. When the projection surface is a three-dimensional surface, the projection unit 2 can project a three-dimensional image on the projection surface by using a 3D projection mapping technique. Further, the projection unit 2 may project an image on the surface of the screen with the surface of the dedicated screen as the projection surface.

また、映像表示システム10は、検知部3に含まれるカメラ32の検知結果を用いて、対象領域A1の状態について更に多様な検知を行うように構成されていてもよい。例えば、検知部3は、カメラ32で撮像された画像から、対象領域A1の色、光の反射率、又は表面粗さ等を判断して、対象領域A1の状態が映像Im1の投影に適した状態にあるか否かを判断してもよい。具体例として、対象領域A1が投影する映像Im1と同系色である場合、又は対象領域A1の光の反射率が規定値以下である場合等には、検知部3は、対象領域A1の状態が映像Im1の投影に適した状態にないと判断してもよい。さらに、検知部3は、カメラ32で撮像された画像を、映像生成部44で生成された映像Im1と比較することにより、実際に対象領域A1に投影された映像Im1の歪み等を検出し、対象領域A1の状態を検知してもよい。 Further, the video display system 10 may be configured to perform more various detections on the state of the target area A1 by using the detection results of the camera 32 included in the detection unit 3. For example, the detection unit 3 determines from the image captured by the camera 32 the color of the target area A1, the reflectance of light, the surface roughness, and the like, and the state of the target area A1 is suitable for projection of the image Im1. You may decide whether or not it is in a state. As a specific example, when the color of the target area A1 is similar to that of the projected image Im1, or when the reflectance of the light of the target area A1 is equal to or less than the specified value, the detection unit 3 determines that the target area A1 is in a state of the target area A1. It may be determined that the state is not suitable for the projection of the image Im1. Further, the detection unit 3 detects the distortion of the image Im1 actually projected on the target area A1 by comparing the image captured by the camera 32 with the image Im1 generated by the image generation unit 44. The state of the target area A1 may be detected.

また、投影部2は、検知部3のカメラ32で撮像された画像から抽出される、対象領域A1の色、又は光の反射率等の情報に応じて、投影する映像Im1の色合い及び/又は明るさ等を変化させてもよい。 Further, the projection unit 2 projects the hue and / or the hue of the image Im1 to be projected according to information such as the color of the target region A1 or the reflectance of light extracted from the image captured by the camera 32 of the detection unit 3. The brightness and the like may be changed.

また、投影部2は、本体部1の後方に向けて映像Im1を投影する構成に限らず、例えば、本体部1の前方に向けて映像Im1を投影してもよい。投影部2は、一対の支柱12の各側面に設けられていてもよく、この場合、本体部1の左方及び右方に向けて映像Im1を投影可能である。この構成では、台車搬送動作の追従モードのように本体部1が台車100のユーザを追従する場合、及び上述した案内動作のように本体部1がユーザに先行して移動する場合のいずれでも、ユーザから映像Im1が見えやすくなる。 Further, the projection unit 2 is not limited to the configuration in which the image Im1 is projected toward the rear of the main body 1, and may, for example, project the image Im1 toward the front of the main body 1. The projection unit 2 may be provided on each side surface of the pair of columns 12, and in this case, the image Im1 can be projected toward the left and right sides of the main body unit 1. In this configuration, both when the main body 1 follows the user of the bogie 100 as in the follow-up mode of the bogie transport operation and when the main body 1 moves ahead of the user as in the above-mentioned guidance operation. The image Im1 can be easily seen by the user.

また、映像表示システム10は、実施形態1のように、全ての構成要素を本体部1に一体に有する構成に限らず、一部の構成要素が分散して設けられていてもよい。例えば、投影部2と検知部3とが1つの筐体(本体部1)内に集約されていることは映像表示システム10に必須の構成ではなく、映像表示システム10の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、例えば、検知部3等の個々の構成要素についても、1つの筐体内に集約されていることは映像表示システム10に必須の構成ではなく、個々の構成要素が複数の筐体に分散して設けられていてもよい。 Further, the video display system 10 is not limited to a configuration in which all the components are integrally provided in the main body 1 as in the first embodiment, and some components may be distributed and provided. For example, the fact that the projection unit 2 and the detection unit 3 are integrated in one housing (main body unit 1) is not an essential configuration for the video display system 10, and the video display system 10 has a plurality of components. It may be distributedly provided in the housing. Further, for example, it is not an essential configuration for the video display system 10 that the individual components such as the detection unit 3 are integrated in one housing, and the individual components are dispersed in a plurality of housings. It may be provided.

映像表示システム10の一部の構成要素が分散して設けられる具体例として、本体部1から検知部3が省略され、施設(空港施設)に設けられた監視カメラが検知部3を構成してもよい。この場合でも、例えば、施設側の検知部3(監視カメラ)と本体部1との間で通信することにより、検知部3の検知結果を受けて本体部1は実施形態1と同様の動作を実現できる。また、映像表示システム10が複数の本体部1を備える場合、車両と車両との間(車車間)で直接的に通信する、いわゆるV2V(Vehicle to Vehicle)の通信技術を、複数の本体部1に適用してもよい。これにより、ある本体部1は、周辺に存在する他の本体部1から検知部3の検知結果を受信し、自身の検知部3の検知結果と併せて、対象領域A1の状態の検知に用いることができる。また、複数の本体部1が連携して、1つの映像Im1を投影することも可能である。 As a specific example in which some components of the video display system 10 are distributed and provided, the detection unit 3 is omitted from the main body unit 1, and a surveillance camera provided in the facility (airport facility) constitutes the detection unit 3. May be good. Even in this case, for example, by communicating between the detection unit 3 (surveillance camera) on the facility side and the main body unit 1, the main body unit 1 receives the detection result of the detection unit 3 and operates in the same manner as in the first embodiment. realizable. Further, when the video display system 10 includes a plurality of main bodies 1, the so-called V2V (Vehicle to Vehicle) communication technology for directly communicating between vehicles (vehicle-to-vehicle) is applied to the plurality of main bodies 1. May be applied to. As a result, one main body unit 1 receives the detection result of the detection unit 3 from other main body units 1 existing in the vicinity, and is used for detecting the state of the target area A1 together with the detection result of its own detection unit 3. be able to. It is also possible for a plurality of main body units 1 to cooperate with each other to project one image Im1.

また、検知部3は、測域センサ31及びカメラ32の2種類のセンサを有する構成に限らず、1種類のセンサのみ、又は3種類以上のセンサを有していてもよい。さらに、検知部3は、測域センサ31及びカメラ32のように光学的に物体を検知するセンサに限らず、例えば、ToF(Time-of-Flight)方式の距離画像カメラ、超音波を検知に用いるソナーセンサ、電波を検知に用いるレーダ等を、有していてもよい。 Further, the detection unit 3 is not limited to the configuration having two types of sensors, the range sensor 31 and the camera 32, and may have only one type of sensor or three or more types of sensors. Further, the detection unit 3 is not limited to a sensor that optically detects an object such as a range sensor 31 and a camera 32, and for example, a ToF (Time-of-Flight) type distance image camera and ultrasonic waves are detected. It may have a sonar sensor to be used, a radar to detect radio waves, and the like.

また、視線誘導部45は、少なくとも投影部2の動作モードが第2モードである場合に誘導情報を提示すればよく、投影部2の動作モードが第1モードである場合にも誘導情報を提示する構成であってもよい。この場合、投影部2の動作モードが第1モードである間は、視線誘導部45は、第1面(床面F1)に視線を誘導するための誘導情報を提示する。 Further, the line-of-sight guidance unit 45 may present guidance information at least when the operation mode of the projection unit 2 is the second mode, and presents guidance information even when the operation mode of the projection unit 2 is the first mode. It may be configured to be used. In this case, while the operation mode of the projection unit 2 is the first mode, the line-of-sight guidance unit 45 presents guidance information for guiding the line of sight to the first surface (floor surface F1).

また、映像生成部44は投影制御部42によって制御されてもよい。この場合、投影制御部42は、投影部2が投影する映像Im1の大きさ、形状、及び投影方向の少なくとも1つを、映像生成部44にてソフトウェア的に変更することができる。さらに、投影制御部42が映像Im1の大きさ及び/又は形状を変化させる場合、映像生成部44が生成する映像Im1の内容も、映像Im1の大きさ及び/又は形状と併せて変更してもよい。 Further, the image generation unit 44 may be controlled by the projection control unit 42. In this case, the projection control unit 42 can change at least one of the size, shape, and projection direction of the image Im1 projected by the projection unit 2 by software in the image generation unit 44. Further, when the projection control unit 42 changes the size and / or shape of the image Im1, the content of the image Im1 generated by the image generation unit 44 may be changed together with the size and / or shape of the image Im1. good.

また、本体部1は、床面F1上を走行する構成に限らず、例えば、ドローンのように飛行により移動する構成であってもよい。 Further, the main body 1 is not limited to the configuration of traveling on the floor surface F1, and may be configured to move by flight, for example, like a drone.

また、第1面が床面F1、第2面が天井面C1である場合について例示したが、これに限らず、例えば、第1面が天井面C1又は壁面、第2面が床面F1又は壁面であってもよい。さらに投影面は、少なくとも第1面及び第2面を含む複数の面から選択されればよく、3つ以上の面を含む複数の面から選択されてもよい。また、投影面は、第1面及び第2面を含む複数の面から選択されればよく、投影面が択一的に選択される構成に限らず、複数の面が同時に投影面として選択されてもよい。この場合、投影面となる複数の面に、投影部2からの映像Im1が同時に投影されることになる。この場合、映像Im1を投影する複数の面に対応して、投影部2が複数設けられてもよい。 Further, the case where the first surface is the floor surface F1 and the second surface is the ceiling surface C1 has been illustrated, but the present invention is not limited to this. For example, the first surface is the ceiling surface C1 or the wall surface, and the second surface is the floor surface F1 or. It may be a wall surface. Further, the projection plane may be selected from a plurality of planes including at least the first plane and the second plane, and may be selected from a plurality of planes including three or more planes. Further, the projection plane may be selected from a plurality of planes including the first plane and the second plane, and the projection plane is not limited to the configuration in which the projection plane is selectively selected, and a plurality of planes are simultaneously selected as the projection planes. You may. In this case, the image Im1 from the projection unit 2 is simultaneously projected on the plurality of projection surfaces. In this case, a plurality of projection units 2 may be provided corresponding to a plurality of surfaces on which the image Im1 is projected.

また、実施形態1では、車輪14がオムニホイールである場合について説明したが、この構成に限らず、車輪14はメカナムホイール等であってもよいし、全方向移動型車輪でなくてもよい。 Further, in the first embodiment, the case where the wheel 14 is an omni wheel has been described, but the present invention is not limited to this configuration, and the wheel 14 may be a mecanum wheel or the like, or may not be an omnidirectional movable wheel. ..

また、映像表示システム10は空港施設に限らず、例えば、店舗、駅、及びホテル等の施設に適用されてもよい。 Further, the video display system 10 is not limited to airport facilities, and may be applied to facilities such as stores, train stations, and hotels.

上述した種々の変形例は、適宜組み合わせて適用可能である。 The various modifications described above can be applied in combination as appropriate.

(実施形態2)
本実施形態に係る映像表示システム10Aは、図10に示すように、時間計測部46を更に備える点で、実施形態1に係る映像表示システム10と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略することもある。
(Embodiment 2)
As shown in FIG. 10, the video display system 10A according to the present embodiment is different from the video display system 10 according to the first embodiment in that it further includes a time measuring unit 46. Hereinafter, the same configurations as those in the first embodiment may be designated by a common reference numeral and description thereof may be omitted as appropriate.

時間計測部46は、検知部3により対象領域A1の状態が映像Im1を投影可能な状態にあると判断された累計時間を計測する。ここでいう「累計時間」は、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にあることが細切れで検知された場合には、これらの細切れの時間を合計(累計)した時間である。言い換えれば、投影部2が映像Im1を投影した総時間から、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にないことが検知された時間を差し引いた時間が、累計時間として時間計測部46で計測される。本実施形態では、時間計測部46は、本体部1Aの制御回路4Aに設けられている。 The time measuring unit 46 measures the cumulative time when the detection unit 3 determines that the state of the target area A1 is in a state where the image Im1 can be projected. The "cumulative time" here is the total (cumulative) of the time when the detection unit 3 detects that the state of the target area A1 is in a state where the image Im1 can be projected. It's time to do it. In other words, the total time obtained by subtracting the time when the detection unit 3 detects that the state of the target area A1 is not in the state where the image Im1 can be projected is the total time when the projection unit 2 projects the image Im1. It is measured by the time measuring unit 46. In the present embodiment, the time measuring unit 46 is provided in the control circuit 4A of the main body unit 1A.

時間計測部46で計測された累計時間を表す時間情報は、例えば、本体部1Aに搭載されている通信部から、本体部1Aの外部の管理装置に送信される。例えば、映像Im1が広告用の映像である場合には、累計時間は、広告主に対する課金計算に用いることができる。すなわち、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にないことが検知された期間については、対象領域A1に投影される映像Im1の少なくとも一部が欠けたり、歪んだりして、正常な映像Im1が表示されない期間である。そのため、このような期間については課金の対象から外し、実質的に広告が表示された期間のみを課金対象とすることが好ましい。 The time information representing the cumulative time measured by the time measuring unit 46 is transmitted, for example, from the communication unit mounted on the main body unit 1A to an external management device of the main body unit 1A. For example, when the video Im1 is a video for advertising, the cumulative time can be used for billing calculation for the advertiser. That is, during the period when the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, at least a part of the image Im1 projected on the target area A1 is missing or distorted. Then, it is a period during which the normal image Im1 is not displayed. Therefore, it is preferable to exclude such a period from the billing target and to charge only the period in which the advertisement is substantially displayed.

要するに、本実施形態に係る映像表示システム10Aでは、実質的に映像Im1が表示された時間の長さに応じて課金等の措置をとることができる。したがって、検知部3にて対象領域A1の状態が映像Im1を投影可能な状態にないことが検知された場合に、別の場所に映像Im1を投影する等の措置をとることは必須ではない。検知部3の検知結果を課金等に反映させることにより、映像表示システム10Aのユーザ(広告主等)に対して、平等なサービスを提供することができる。 In short, in the video display system 10A according to the present embodiment, measures such as billing can be taken according to the length of time that the video Im1 is substantially displayed. Therefore, when the detection unit 3 detects that the state of the target area A1 is not in a state where the image Im1 can be projected, it is not essential to take measures such as projecting the image Im1 to another place. By reflecting the detection result of the detection unit 3 in the billing or the like, it is possible to provide equal services to the users (advertisers and the like) of the video display system 10A.

また、時間計測部46は、本体部1Aとは別に設けられていてもよい。例えば、本体部1Aの通信部と通信可能な管理装置等に時間計測部46が設けられていてもよい。この場合、本体部1Aの外部で累計時間を管理することが容易になる。 Further, the time measuring unit 46 may be provided separately from the main body unit 1A. For example, the time measuring unit 46 may be provided in a management device or the like capable of communicating with the communication unit of the main body unit 1A. In this case, it becomes easy to manage the cumulative time outside the main body 1A.

また、累計時間は、課金計算のためだけでなく、例えば、本体部1の稼働時間の管理等に用いられてもよい。 Further, the cumulative time may be used not only for billing calculation but also for, for example, management of the operating time of the main body 1.

実施形態2に係る映像表示システム10Aの構成(変形例を含む)は、実施形態1(変形例を含む)の構成と適宜組み合わせ可能である。 The configuration (including the modified example) of the video display system 10A according to the second embodiment can be appropriately combined with the configuration of the first embodiment (including the modified example).

上記各実施形態で示した図面は、映像表示システム10(10A)の一例を説明するための概念図に過ぎず、実際の態様とは、各部の形状、サイズ、及び位置関係等が適宜異なることもある。 The drawings shown in the above embodiments are merely conceptual diagrams for explaining an example of the video display system 10 (10A), and the shape, size, positional relationship, etc. of each part may be appropriately different from the actual embodiment. There is also.

(まとめ)
以上説明したように、本発明の第1の態様に係る映像表示システム(10,10A)は、本体部(1,1A)と、投影部(2)と、検知部(3)と、を備える。本体部(1,1A)は、移動可能である。投影部(2)は、本体部(1,1A)に搭載されており、本体部(1,1A)の周囲に存在する投影面に映像(Im1)を投影する。検知部(3)は、投影面において、映像(Im1)を投影するための対象領域(A1)の状態を検知する。
(summary)
As described above, the video display system (10, 10A) according to the first aspect of the present invention includes a main body unit (1,1A), a projection unit (2), and a detection unit (3). .. The main body (1,1A) is movable. The projection unit (2) is mounted on the main body unit (1,1A), and projects an image (Im1) on a projection surface existing around the main body unit (1,1A). The detection unit (3) detects the state of the target area (A1) for projecting the image (Im1) on the projection surface.

この構成によれば、本体部(1,1A)の周囲に存在する投影面に映像(Im1)が投影されるので、特定の人だけでなく、本体部(1,1A)の周辺に位置する不特定の人から見えやすい映像(Im1)を表示することができる、という利点がある。しかも、本体部(1,1A)の周囲に存在する投影面において、映像(Im1)を投影するための対象領域(A1)の状態を検知部(3)にて検知している。例えば、本体部(1,1A)の周囲に人だかりができている場合等、投影面において映像(Im1)を投影するのに十分な対象領域(A1)を確保できない場合、映像表示システム(10,10A)は、別の場所に映像(Im1)を投影する等の措置をとれる。したがって、本態様によれば、不特定の人から、より一層見えやすい映像(Im1)を表示することができる。 According to this configuration, since the image (Im1) is projected on the projection surface existing around the main body (1,1A), it is located not only on a specific person but also around the main body (1,1A). It has the advantage of being able to display an image (Im1) that is easy for an unspecified person to see. Moreover, the detection unit (3) detects the state of the target area (A1) for projecting the image (Im1) on the projection surface existing around the main body unit (1,1A). For example, when a target area (A1) sufficient for projecting an image (Im1) cannot be secured on the projection surface, such as when there is a crowd around the main body (1,1A), the image display system (10, In 10A), measures such as projecting an image (Im1) on another place can be taken. Therefore, according to this aspect, it is possible to display an image (Im1) that is even easier to see from an unspecified person.

本発明の第2の態様に係る映像表示システム(10,10A)は、第1の態様において、移動制御部(41)を更に備える。移動制御部(41)は、対象領域(A1)の状態が映像(Im1)を投影可能な状態にない場合には、本体部(1,1A)を移動させて対象領域(A1)を確保するように、検知部(3)の検知結果に応じて、本体部(1,1A)を制御する。 The video display system (10, 10A) according to the second aspect of the present invention further includes a movement control unit (41) in the first aspect. When the state of the target area (A1) is not in a state where the image (Im1) can be projected, the movement control unit (41) moves the main body unit (1,1A) to secure the target area (A1). As described above, the main body unit (1,1A) is controlled according to the detection result of the detection unit (3).

この構成によれば、例えば、本体部(1,1A)が人混みの中にある場合等で、対象領域(A1)の状態が映像(Im1)を投影可能な状態にない場合に、本体部(1,1A)ごと移動することで、空きスペースに映像(Im1)の表示が可能になる。さらに、本体部(1,1A)が人混みを避けるように移動して映像(Im1)を投影可能すれば、映像(Im1)を見る人を、人混みから離れた場所へと誘導することにもつながる。その結果、映像表示システム(10,10A)は、空港施設等の施設内において、本来、あまり人が集まらない場所へと人を誘導することができ、施設内での人の分布の偏りを緩和し、施設内での人の流れをスムーズにすることにも寄与する。 According to this configuration, for example, when the main body (1,1A) is in a crowd and the state of the target area (A1) is not in a state where the image (Im1) can be projected, the main body (1,1A) ( By moving every 1,1A), the image (Im1) can be displayed in the empty space. Furthermore, if the main body (1,1A) can move so as to avoid crowds and project an image (Im1), it will lead to guiding the viewer of the image (Im1) to a place away from the crowds. .. As a result, the video display system (10, 10A) can guide people to places where people do not originally gather in facilities such as airport facilities, and alleviates the bias in the distribution of people in the facilities. It also contributes to smoothing the flow of people in the facility.

本発明の第3の態様に係る映像表示システム(10,10A)は、第1又は2の態様において、投影制御部(42)を更に備える。投影制御部(42)は、対象領域(A1)の状態が映像(Im1)を投影可能な状態にない場合には、映像(Im1)の大きさ、形状、及び投影方向の少なくとも1つを変化させて、対象領域(A1)を確保するように、検知部(3)の検知結果に応じて、投影部(2)を制御する。 The video display system (10, 10A) according to the third aspect of the present invention further includes a projection control unit (42) in the first or second aspect. The projection control unit (42) changes at least one of the size, shape, and projection direction of the image (Im1) when the state of the target area (A1) is not in a state where the image (Im1) can be projected. The projection unit (2) is controlled according to the detection result of the detection unit (3) so as to secure the target area (A1).

この構成によれば、対象領域(A1)の状態が映像(Im1)を投影可能な状態にない場合に、例えば、映像(Im1)を縮小等することで、本体部(1,1A)の移動経路が確保できなくても、映像(Im1)の表示が可能になる。 According to this configuration, when the state of the target area (A1) is not in a state where the image (Im1) can be projected, for example, the image (Im1) is reduced to move the main body (1,1A). Even if the route cannot be secured, the image (Im1) can be displayed.

本発明の第4の態様に係る映像表示システム(10,10A)は、第1~3のいずれかの態様において、本体部(1,1A)は、台車(100)を搬送するための搬送部(6)を有する。投影部(2)は、少なくとも搬送部(6)が台車(100)の搬送を行っていない待機期間において、対象領域(A1)に映像(Im1)を投影するように構成されている。 In the video display system (10, 10A) according to the fourth aspect of the present invention, in any one of the first to third aspects, the main body portion (1,1A) is a transport unit for transporting the carriage (100). It has (6). The projection unit (2) is configured to project an image (Im1) onto the target area (A1) at least during a standby period during which the transport unit (6) is not transporting the carriage (100).

この構成によれば、搬送部(6)が台車(100)の搬送を行っていない空き時間(待機期間)を利用して、本体部(1,1A)に搭載された投影部(2)にて映像(Im1)を投影することが可能である。これにより、台車(100)の搬送を行っている期間は勿論のこと、台車(100)の搬送を行っていない待機期間についても、本体部(1,1A)を有効に利用することができる。 According to this configuration, the projection unit (2) mounted on the main body unit (1,1A) uses the free time (standby period) in which the transport unit (6) does not transport the bogie (100). It is possible to project an image (Im1). As a result, the main body portion (1, 1A) can be effectively used not only during the period during which the trolley (100) is being transported, but also during the waiting period during which the trolley (100) is not being transported.

本発明の第5の態様に係る映像表示システム(10,10A)は、第1~4のいずれかの態様において、投影面は、互いに面の向きが異なる第1面及び第2面を含む複数の面から選択される。投影部(2)の動作モードは、第1面に映像(Im1)を投影する第1モードと、第2面に映像(Im1)を投影する第2モードと、を有する。 In the video display system (10, 10A) according to the fifth aspect of the present invention, in any one of the first to fourth aspects, the projection planes include a plurality of projection planes having different orientations of the first plane and the second plane. It is selected from the aspect of. The operation mode of the projection unit (2) includes a first mode for projecting an image (Im1) on the first surface and a second mode for projecting an image (Im1) on the second surface.

この構成によれば、投影部(2)は、動作モードによって、互いに面の向きが異なる第1面及び第2面のいずれに映像(Im1)を投影するかを切り替えることができる。したがって、例えば、対象領域(A1)の状態が映像(Im1)を投影可能な状態にない場合に、投影部(2)が、映像(Im1)の投影先を第1面及び第2面間で切り替えて、空きスペースに映像(Im1)の表示が可能になる。 According to this configuration, the projection unit (2) can switch whether to project the image (Im1) on the first surface or the second surface in which the orientations of the surfaces are different from each other, depending on the operation mode. Therefore, for example, when the state of the target area (A1) is not in a state where the image (Im1) can be projected, the projection unit (2) projects the image (Im1) between the first surface and the second surface. By switching, it becomes possible to display the image (Im1) in the empty space.

本発明の第6の態様に係る映像表示システム(10,10A)は、第5の態様において、投影部(2)によって投影される映像(Im1)に人の視線を誘導するための情報の提示を行う視線誘導部(45)を更に備える。視線誘導部(45)は、少なくとも投影部(2)の動作モードが第2モードである場合に、第2面に視線を誘導するための情報を提示するように構成されている。 The image display system (10, 10A) according to the sixth aspect of the present invention presents information for guiding a person's line of sight to the image (Im1) projected by the projection unit (2) in the fifth aspect. A line-of-sight guidance unit (45) for performing the above is further provided. The line-of-sight guidance unit (45) is configured to present information for guiding the line of sight to the second surface at least when the operation mode of the projection unit (2) is the second mode.

この構成によれば、少なくとも第2面に映像(Im1)が投影されている際に、映像(Im1)に人の視線を向けさせることができる。したがって、例えば、映像(Im1)の投影先が第1面から第2面に切り替わった場合でも、本体部(1,1A)の周辺に位置する不特定の人から見えやすい映像(Im1)を表示することができる、という利点がある。 According to this configuration, when the image (Im1) is projected on at least the second surface, the person's line of sight can be directed to the image (Im1). Therefore, for example, even when the projection destination of the image (Im1) is switched from the first surface to the second surface, the image (Im1) that is easily visible to an unspecified person located around the main body (1,1A) is displayed. It has the advantage of being able to.

本発明の第7の態様に係る映像表示システム(10,10A)は、第1~6のいずれかの態様において、本体部(1,1A)が自律的に移動するように本体部(1,1A)を制御する自律制御部(43)を更に備える。 In the video display system (10, 10A) according to the seventh aspect of the present invention, in any one of the first to sixth aspects, the main body portion (1, 1A) moves autonomously. Further, an autonomous control unit (43) for controlling 1A) is provided.

この構成によれば、本体部(1,1A)が自律的に移動するので、本体部(1,1A)の操作に掛かる人手を省略できる。 According to this configuration, since the main body portion (1,1A) moves autonomously, it is possible to omit the manpower required to operate the main body portion (1,1A).

本発明の第8の態様に係る映像表示システム(10,10A)は、第7の態様において、映像生成部(44)を更に備える。映像生成部(44)は、映像(Im1)が、本体部(1,1A)の現在の位置に関連する内容と、本体部(1,1A)の移動経路に関連する内容と、本体部(1,1A)の姿勢に関連する内容との少なくとも1つを表すように、自律制御部(43)に連動して映像(Im1)を生成する。 The video display system (10, 10A) according to the eighth aspect of the present invention further includes a video generation unit (44) in the seventh aspect. In the image generation unit (44), the image (Im1) has a content related to the current position of the main body unit (1,1A), a content related to the movement path of the main body unit (1,1A), and a main body unit (1,1A). A video (Im1) is generated in conjunction with the autonomous control unit (43) so as to represent at least one of the contents related to the posture of 1,1A).

この構成によれば、本体部(1,1A)の現在の位置、本体部(1,1A)の移動経路、及び本体部(1,1A)の姿勢の少なくとも1つに関連して好適な映像(Im1)を表示することができる。 According to this configuration, an image suitable in relation to at least one of the current position of the main body (1,1A), the movement path of the main body (1,1A), and the posture of the main body (1,1A). (Im1) can be displayed.

本発明の第9の態様に係る映像表示システム(10,10A)は、第1~8のいずれかの態様において、検知部(3)により対象領域(A1)の状態が映像(Im1)を投影可能な状態にあると判断された累計時間を計測する時間計測部(46)を更に備える。 In the image display system (10, 10A) according to the ninth aspect of the present invention, in any one of the first to eighth aspects, the state of the target area (A1) projects an image (Im1) by the detection unit (3). Further, a time measuring unit (46) for measuring the cumulative time determined to be in a possible state is provided.

この構成によれば、対象領域(A1)に投影される映像(Im1)の少なくとも一部が欠けたり、歪んだりして、正常な映像(Im1)が表示されない期間を除き、実質的に映像(Im1)が表示された時間を計測することができる。 According to this configuration, except for a period in which at least a part of the image (Im1) projected on the target area (A1) is missing or distorted and the normal image (Im1) is not displayed, the image (Im1) is substantially (. It is possible to measure the time when Im1) is displayed.

本発明の第10の態様に係る映像表示システム(10,10A)は、第1~9のいずれかの態様において、前記本体部(1,1A)の周辺に存在する人の属性情報に応じて、前記映像(Im1)中の言語を決定するように構成されている。 In any one of the first to ninth aspects, the video display system (10, 10A) according to the tenth aspect of the present invention corresponds to the attribute information of a person existing in the vicinity of the main body (1,1A). , It is configured to determine the language in the video (Im1).

この構成によれば、例えば、本体部(1,1A)の周辺に存在する人の国籍等の属性情報に応じて、映像(Im1)中の言語が決定されるので、映像(Im1)を見る人に合わせた言語を自動的に選択することができる。 According to this configuration, for example, the language in the video (Im1) is determined according to the attribute information such as the nationality of the person existing around the main body (1,1A), so that the video (Im1) is viewed. You can automatically select the language that suits you.

第4の態様については、それ単独でも実施し得る態様であって、第1~3のいずれかの態様を前提とすることは必須ではない。すなわち、第4の態様に係る映像表示システム(10,10A)は、移動可能な本体部(1,1A)と、本体部(1,1A)に搭載されており、本体部(1,1A)の周囲に存在する投影面に映像(Im1)を投影する投影部(2)と、を備える。本体部(1,1A)は、台車(100)を搬送するための搬送部(6)を有し、投影部(2)は、少なくとも搬送部(6)が台車(100)の搬送を行っていない待機期間において、映像(Im1)を投影するように構成されている。 The fourth aspect is an aspect that can be carried out by itself, and it is not essential to presuppose any one of the first to third aspects. That is, the video display system (10, 10A) according to the fourth aspect is mounted on the movable main body portion (1,1A) and the main body portion (1,1A), and is mounted on the main body portion (1,1A). It is provided with a projection unit (2) for projecting an image (Im1) on a projection surface existing around the. The main body unit (1,1A) has a transport unit (6) for transporting the trolley (100), and at least the transport unit (6) of the projection unit (2) transports the trolley (100). It is configured to project an image (Im1) during a non-waiting period.

第6の態様については、それ単独でも実施し得る態様であって、第1~5のいずれかの態様を前提とすることは必須ではない。すなわち、第6の態様に係る映像表示システム(10,10A)は、移動可能な本体部(1,1A)と、本体部(1,1A)に搭載されており、本体部(1,1A)の周囲に存在する投影面に映像(Im1)を投影する投影部(2)と、を備える。投影面は、互いに面の向きが異なる第1面及び第2面を含む複数の面から選択される。投影部(2)の動作モードは、第1面に映像(Im1)を投影する第1モードと、第2面に映像(Im1)を投影する第2モードと、を有する。この映像表示システム(10,10A)は、投影部(2)によって投影される映像(Im1)に人の視線を誘導するための情報の提示を行う視線誘導部(45)を更に備える。視線誘導部(45)は、少なくとも投影部(2)の動作モードが第2モードである場合に、第2面に視線を誘導するための情報を提示するように構成されている。 The sixth aspect is an aspect that can be carried out by itself, and it is not essential to presuppose any one of the first to fifth aspects. That is, the video display system (10, 10A) according to the sixth aspect is mounted on the movable main body portion (1,1A) and the main body portion (1,1A), and is mounted on the main body portion (1,1A). It is provided with a projection unit (2) for projecting an image (Im1) on a projection surface existing around the. The projection plane is selected from a plurality of planes including the first plane and the second plane having different orientations from each other. The operation mode of the projection unit (2) includes a first mode for projecting an image (Im1) on the first surface and a second mode for projecting an image (Im1) on the second surface. The image display system (10, 10A) further includes a line-of-sight guidance unit (45) that presents information for guiding a person's line of sight to the image (Im1) projected by the projection unit (2). The line-of-sight guidance unit (45) is configured to present information for guiding the line of sight to the second surface at least when the operation mode of the projection unit (2) is the second mode.

第9の態様については、それ単独でも実施し得る態様であって、第1~8のいずれかの態様を前提とすることは必須ではない。すなわち、第9の態様に係る映像表示システム(10,10A)は、本体部(1,1A)と、投影部(2)と、検知部(3)と、を備える。投影部(2)は、本体部(1,1A)に搭載されており、本体部(1,1A)の周囲に存在する投影面に映像(Im1)を投影する。検知部(3)は、投影面において、映像(Im1)を投影するための対象領域(A1)の状態を検知する。この映像表示システム(10,10A)は、検知部(3)により対象領域(A1)の状態が映像(Im1)を投影可能な状態にあると判断された累計時間を計測する時間計測部(46)を更に備える。この場合、映像表示システム(10,10A)において、本体部(1,1A)が移動可能であることは必須の構成ではなく、例えば、本体部(1,1A)が定位置に固定されてもよい。 The ninth aspect is a mode that can be carried out by itself, and it is not essential to presuppose any of the first to eighth aspects. That is, the video display system (10, 10A) according to the ninth aspect includes a main body unit (1,1A), a projection unit (2), and a detection unit (3). The projection unit (2) is mounted on the main body unit (1,1A), and projects an image (Im1) on a projection surface existing around the main body unit (1,1A). The detection unit (3) detects the state of the target area (A1) for projecting the image (Im1) on the projection surface. This video display system (10, 10A) is a time measuring unit (46) that measures the cumulative time when the detection unit (3) determines that the state of the target area (A1) is in a state where the image (Im1) can be projected. ) Is further provided. In this case, in the video display system (10,10A), it is not essential that the main body (1,1A) is movable, and for example, even if the main body (1,1A) is fixed in a fixed position. good.

第2~10の態様に係る構成については、映像表示システム(10,10A)に必須の構成ではなく、適宜省略可能である。 The configurations according to the second to tenth aspects are not essential configurations for the video display system (10, 10A) and can be omitted as appropriate.

1,1A 本体部
2 投影部
3 検知部
6 搬送部
10,10A 映像表示システム
41 移動制御部
42 投影制御部
43 自律制御部
44 映像生成部
45 視線誘導部
46 時間計測部
100 台車
A1 対象領域
C1 天井面(第2面、投影面)
F1 床面(第1面、投影面)
Im1 映像
1,1A Main unit 2 Projection unit 3 Detection unit 6 Transport unit 10,10A Video display system 41 Movement control unit 42 Projection control unit 43 Autonomous control unit 44 Image generation unit 45 Line-of-sight guidance unit 46 Hours measurement unit 100 trolley A1 Target area C1 Ceiling surface (second surface, projection surface)
F1 floor surface (first surface, projection surface)
Im1 video

Claims (12)

移動可能な本体部と、
前記本体部に搭載されており、前記本体部の周囲に存在する投影面に映像を投影する投影部と、を備え、
前記本体部は、台車を搬送するための搬送部を有し、
前記投影部は、少なくとも前記搬送部が前記台車の搬送を行っていない待機期間において、前記映像を投影するための対象領域に前記映像を投影するように構成されている
映像表示システム。
Movable body and
It is mounted on the main body and includes a projection unit that projects an image on a projection surface existing around the main body.
The main body portion has a transport portion for transporting the dolly.
The projection unit is configured to project the image onto a target area for projecting the image, at least during a waiting period during which the transport unit does not transport the trolley.
Video display system.
前記投影面において、前記映像を投影するための対象領域の状態を検知する検知部と、
前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記本体部を移動させて前記対象領域を確保するように、前記検知部の検知結果に応じて、前記本体部を制御する移動制御部と、を更に備える
請求項1に記載の映像表示システム。
A detection unit that detects the state of the target area for projecting the image on the projection surface, and
When the state of the target area is not in a state where the image can be projected, the main body is controlled according to the detection result of the detection unit so as to move the main body to secure the target area. The video display system according to claim 1, further comprising a movement control unit.
前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記映像の大きさ、形状、及び投影方向の少なくとも1つを変化させて、前記対象領域を確保するように、前記検知部の検知結果に応じて、前記投影部を制御する投影制御部を更に備える
請求項2に記載の映像表示システム。
When the state of the target area is not in a state where the image can be projected, the detection is performed so as to secure the target area by changing at least one of the size, shape, and projection direction of the image. The video display system according to claim 2, further comprising a projection control unit that controls the projection unit according to the detection result of the unit.
前記投影面は、互いに面の向きが異なる第1面及び第2面を含む複数の面から選択され、 The projection plane is selected from a plurality of planes including a first plane and a second plane having different orientations from each other.
前記投影部の動作モードは、 The operation mode of the projection unit is
前記第1面に前記映像を投影する第1モードと、 The first mode of projecting the image on the first surface and
前記第2面に前記映像を投影する第2モードと、を有する It has a second mode of projecting the image on the second surface.
請求項1~3のいずれか1項に記載の映像表示システム。 The video display system according to any one of claims 1 to 3.
前記投影部によって投影される前記映像に人の視線を誘導するための情報の提示を行う視線誘導部を更に備え、 Further provided with a line-of-sight guidance unit that presents information for guiding a person's line of sight to the image projected by the projection unit.
前記視線誘導部は、 The line-of-sight guidance unit is
少なくとも前記投影部の前記動作モードが前記第2モードである場合に、前記第2面に前記視線を誘導するための情報を提示するように構成されている At least when the operation mode of the projection unit is the second mode, it is configured to present information for guiding the line of sight to the second surface.
請求項4に記載の映像表示システム。 The video display system according to claim 4.
前記本体部が自律的に移動するように前記本体部を制御する自律制御部を更に備える Further provided with an autonomous control unit that controls the main body portion so that the main body portion moves autonomously.
請求項1~5のいずれか1項に記載の映像表示システム。 The video display system according to any one of claims 1 to 5.
前記映像が、前記本体部の現在の位置に関連する内容と、前記本体部の移動経路に関連する内容と、前記本体部の姿勢に関連する内容との少なくとも1つを表すように、 As shown in the video, at least one of the content related to the current position of the main body portion, the content related to the movement path of the main body portion, and the content related to the posture of the main body portion.
前記自律制御部に連動して前記映像を生成する映像生成部を更に備える A video generation unit that generates the video in conjunction with the autonomous control unit is further provided.
請求項6に記載の映像表示システム。 The video display system according to claim 6.
前記検知部により前記対象領域の状態が前記映像を投影可能な状態にあると判断された累計時間を計測する時間計測部を更に備える Further provided is a time measuring unit for measuring the cumulative time when the detection unit determines that the state of the target area is in a state where the image can be projected.
請求項2又は3に記載の映像表示システム。 The video display system according to claim 2 or 3.
前記本体部の周辺に存在する人の属性情報に応じて、前記映像中の言語を決定するように構成されている It is configured to determine the language in the video according to the attribute information of the person existing around the main body.
請求項1~8のいずれか1項に記載の映像表示システム。 The video display system according to any one of claims 1 to 8.
前記累計時間に応じて課金するように構成されている It is configured to charge according to the cumulative time.
請求項8に記載の映像表示システム。 The video display system according to claim 8.
本体部が移動する移動工程と、 The movement process in which the main body moves and
前記本体部に搭載されており、前記本体部の周囲に存在する投影面に映像を投影する投影工程と、 A projection process that projects an image on a projection surface that is mounted on the main body and exists around the main body.
台車を搬送する搬送工程と、 The transport process for transporting the dolly and
前記投影面において、前記映像を投影するための対象領域の状態を検知する検知工程と、 A detection step for detecting the state of the target area for projecting the image on the projection surface, and
前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記本体部を移動させて前記対象領域を確保するように、前記検知工程の検知結果に応じて、前記本体部を制御する移動制御工程と、 When the state of the target area is not in a state where the image can be projected, the main body is controlled according to the detection result of the detection step so as to move the main body to secure the target area. Movement control process and
前記投影工程は、少なくとも前記搬送工程が前記台車の搬送を行っていない待機期間において、前記対象領域に前記映像を投影する In the projection step, the image is projected onto the target area at least during a waiting period during which the transport step does not transport the trolley.
映像表示方法。 Video display method.
前記対象領域の状態が前記映像を投影可能な状態にない場合には、前記映像の大きさ、形状、及び投影方向の少なくとも1つを変化させて、前記対象領域を確保するように、前記検知工程の検知結果に応じて、前記投影工程を制御する投影制御工程を更に有する When the state of the target area is not in a state where the image can be projected, the detection is performed so as to secure the target area by changing at least one of the size, shape, and projection direction of the image. It further has a projection control process that controls the projection process according to the detection result of the process.
請求項11に記載の映像表示方法。 The video display method according to claim 11.
JP2017019001A 2017-02-03 2017-02-03 Video display system and video display method Active JP7012241B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017019001A JP7012241B2 (en) 2017-02-03 2017-02-03 Video display system and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019001A JP7012241B2 (en) 2017-02-03 2017-02-03 Video display system and video display method

Publications (2)

Publication Number Publication Date
JP2018125816A JP2018125816A (en) 2018-08-09
JP7012241B2 true JP7012241B2 (en) 2022-01-28

Family

ID=63109847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019001A Active JP7012241B2 (en) 2017-02-03 2017-02-03 Video display system and video display method

Country Status (1)

Country Link
JP (1) JP7012241B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7238230B2 (en) * 2018-09-28 2023-03-14 株式会社日本総合研究所 Boarding support device
JP7238229B2 (en) * 2018-09-28 2023-03-14 株式会社日本総合研究所 Information output device
JP7409278B2 (en) * 2020-10-06 2024-01-09 トヨタ自動車株式会社 Vehicles with omnidirectional wheels
WO2023127500A1 (en) * 2021-12-27 2023-07-06 富士フイルム株式会社 Control device, control method, and control program
WO2023170937A1 (en) * 2022-03-11 2023-09-14 日本電気株式会社 Information provision device, information provision method, and computer-readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184039A (en) 2003-12-15 2005-07-07 Yamaha Corp Communication system and communication apparatus
JP2005313291A (en) 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2008140004A (en) 2006-11-30 2008-06-19 Fujitsu Ltd Robot milage system and milage point assignment method
WO2010044204A1 (en) 2008-10-15 2010-04-22 パナソニック株式会社 Light projection device
JP2015518580A (en) 2012-04-08 2015-07-02 サムスン エレクトロニクス カンパニー リミテッド Transparent display device and display method thereof
JP2016134867A (en) 2015-01-22 2016-07-25 シャープ株式会社 Projection device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184039A (en) 2003-12-15 2005-07-07 Yamaha Corp Communication system and communication apparatus
JP2005313291A (en) 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2008140004A (en) 2006-11-30 2008-06-19 Fujitsu Ltd Robot milage system and milage point assignment method
WO2010044204A1 (en) 2008-10-15 2010-04-22 パナソニック株式会社 Light projection device
JP2015518580A (en) 2012-04-08 2015-07-02 サムスン エレクトロニクス カンパニー リミテッド Transparent display device and display method thereof
JP2016134867A (en) 2015-01-22 2016-07-25 シャープ株式会社 Projection device

Also Published As

Publication number Publication date
JP2018125816A (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP7012241B2 (en) Video display system and video display method
CN109703607B (en) Intelligent luggage van
US11697211B2 (en) Mobile robot operation method and mobile robot
CN110476134B (en) System and method for a robotic mobile platform
WO2019138834A1 (en) Information processing device, information processing method, program, and system
US9563205B2 (en) Sensor configurations and methods for mobile robot
US11213943B2 (en) Moving robot and operating method for the same
US11760148B2 (en) Determining vehicle pose using ride height sensors
KR102635529B1 (en) Robot for airport and method thereof
US20200164515A1 (en) Method of operating mobile robot
KR102597216B1 (en) Guidance robot for airport and method thereof
KR102559745B1 (en) Airport robot, and airport robot system including same
US20210209543A1 (en) Directing secondary delivery vehicles using primary delivery vehicles
KR20190003122A (en) Method for operating moving robot
US11474527B2 (en) Moving apparatus, information processing apparatus, and method
CN110392908A (en) For generating the electronic equipment and its operating method of map datum
KR20180038669A (en) Airport robot and airport robot system
US20230266762A1 (en) Autonomous Movement Device, Autonomous Movement Method, And Program
JP2016206876A (en) Travel route teaching system and method for autonomous mobile body
JP6609588B2 (en) Autonomous mobility system and autonomous mobility control method
KR102599784B1 (en) Airport robot
US11630456B2 (en) Autonomous travelling cart system
US20210331728A1 (en) Unmanned movable platforms
JP7317436B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP6887110B2 (en) Transport system, transport device used for it, and transport method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R151 Written notification of patent or utility model registration

Ref document number: 7012241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151