JP6754704B2 - Display and robot - Google Patents

Display and robot Download PDF

Info

Publication number
JP6754704B2
JP6754704B2 JP2017015820A JP2017015820A JP6754704B2 JP 6754704 B2 JP6754704 B2 JP 6754704B2 JP 2017015820 A JP2017015820 A JP 2017015820A JP 2017015820 A JP2017015820 A JP 2017015820A JP 6754704 B2 JP6754704 B2 JP 6754704B2
Authority
JP
Japan
Prior art keywords
display
light
light guide
guide member
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017015820A
Other languages
Japanese (ja)
Other versions
JP2018124399A (en
Inventor
宇佐美 由久
由久 宇佐美
田中 伸也
伸也 田中
素 寺横
素 寺横
要 林
要 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Priority to JP2017015820A priority Critical patent/JP6754704B2/en
Publication of JP2018124399A publication Critical patent/JP2018124399A/en
Application granted granted Critical
Publication of JP6754704B2 publication Critical patent/JP6754704B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Illuminated Signs And Luminous Advertising (AREA)

Description

本発明はディスプレイ及びロボットに係り、画像を表示するディスプレイ及びこのディスプレイを備えたロボットに関する。 The present invention relates to a display and a robot, and relates to a display for displaying an image and a robot provided with the display.

特許文献1には、平面型の電子表示素子を光学系により3次元曲面スクリーンに投影し、感情に対応した電気信号に従って目に類似したパタン表示により感情表現を行う人工目及びそれを用いたロボットが開示されている。特許文献1には、光学系として、ガラスないしプラスチックファイバーからなるものを用いることが開示されている(段落[0025])。 Patent Document 1 describes an artificial eye and a robot using the artificial eye, which projects a flat electronic display element onto a three-dimensional curved screen by an optical system and expresses emotions by a pattern display similar to the eyes according to an electric signal corresponding to the emotions. Is disclosed. Patent Document 1 discloses that an optical system made of glass or plastic fiber is used (paragraph [0025]).

特許文献2には、有機EL装置において、発光層から発光した光を基板の厚み方向に導光させる光ファイバアレイ基板を用いて平行光を取り出すものが開示されている(段落[0022])。 Patent Document 2 discloses an organic EL device that extracts parallel light by using an optical fiber array substrate that guides light emitted from a light emitting layer in the thickness direction of the substrate (paragraph [0022]).

特開2003−205489号公報Japanese Unexamined Patent Publication No. 2003-205489 特開2006−310234号公報Japanese Unexamined Patent Publication No. 2006-310234

愛玩用のロボット等の感情表現機能が重要な役割を果たす機器では、感情表現の手段として目は重要な意味を有する。従来は、目としてディスプレイが用いられていたが、ディスプレイは平面状であり、実際の生物の目のような丸みをもっておらず、通常のディスプレイへの画像の表示と異ならないため、感情表現機能に乏しいという問題があった。 Eyes have an important meaning as a means of expressing emotions in devices such as pet robots in which emotional expression functions play an important role. In the past, a display was used as an eye, but since the display is flat and does not have the roundness of the eyes of an actual living thing, it is not different from the display of an image on a normal display, so it has an emotional expression function. There was a problem of scarcity.

特許文献1には、ガラスないしプラスチックファイバーからなる光学系を用いて、平面型の電子表示素子を3次元曲面スクリーンに投影することで、多彩な感情表現を達成することが記載されており、特許文献2には、複数のグラスファイバを束ねて接着した光ファイバアレイ基板により平行光を取り出すことが記載されている。しかしながら、特許文献1及び特許文献2に記載の導光用の光学系には、単位体積当たりの質量が大きくなるという問題があった。 Patent Document 1 describes that a variety of emotional expressions can be achieved by projecting a flat electronic display element onto a three-dimensional curved screen using an optical system made of glass or plastic fiber. Document 2 describes that parallel light is extracted by an optical fiber array substrate in which a plurality of glass fibers are bundled and bonded. However, the light guide optical systems described in Patent Document 1 and Patent Document 2 have a problem that the mass per unit volume becomes large.

一般に、ロボットでは、動作により可動部にかかる負荷を軽減し、動作を滑らかにするため、単位体積当たりの質量(密度)が小さい材料が用いられることが好ましい。特に愛玩用のロボットでは、オペレータが持ち上げたりする場合があるため、より軽量化されることが好ましい。しかしながら、目の部分の単位体積当たりの質量が大きいと、目が取り付けられるロボットの頭部の前後の重量のバランスが悪くなったり、頭部の動作に伴う負荷が大きくなってしまう。このため、目の部分の単位体積当たりの質量が大きいと、ロボットの動作が阻害されるという問題があった。さらに、頭部の動作による振動等の要因により、目の位置がずれたり、脱落したりするおそれがあった。 In general, in a robot, it is preferable to use a material having a small mass (density) per unit volume in order to reduce the load applied to the moving part by the movement and smooth the movement. In particular, a pet robot may be lifted by an operator, so it is preferable to reduce the weight. However, if the mass per unit volume of the eye portion is large, the weight balance between the front and back of the head of the robot to which the eye is attached becomes unbalanced, and the load associated with the movement of the head becomes large. Therefore, if the mass per unit volume of the eye portion is large, there is a problem that the operation of the robot is hindered. Further, due to factors such as vibration due to the movement of the head, the position of the eyes may shift or fall off.

本発明はこのような事情に鑑みてなされたもので、単位体積当たりの質量が小さいディスプレイ、及びこのディスプレイを用いることで、目を構成する部材の位置ずれ及び脱落が起こりにくいロボットを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides a display having a small mass per unit volume, and a robot in which the members constituting the eyes are less likely to be displaced or fall off by using this display. With the goal.

ロボットの外観に生物的な特徴を持たせる場合、いわゆる「目」は重要な構成要素となる。一般的に「目」は、眼球の一部分が生物の表面上に露出したものであり、露出部分の中央が盛り上がった曲面状の形状をしている。本発明におけるディスプレイは、「目」の形状的な特徴を有しており、ロボットの表面側に少なくとも一部が露出する導光部材であって、その露出する部分のうち中央部分が周辺部分よりも盛り上がった曲面として形成された導光部材を含む。このような「目」としての形状的な特徴を有し、生物的な特徴を有するロボットにおいて、「目」と認識される位置に取り付けられることを意図したディスプレイを特に「目状ディスプレイ」と表現する。 The so-called "eyes" are important components when giving the appearance of a robot a biological character. In general, an "eye" is a part of an eyeball exposed on the surface of an organism, and has a curved shape in which the center of the exposed part is raised. The display in the present invention has the shape characteristic of "eyes", and is a light guide member in which at least a part is exposed on the surface side of the robot, and the central part of the exposed part is more than the peripheral part. Also includes a light guide member formed as a raised curved surface. In a robot having such a shape feature as an "eye" and having a biological feature, a display intended to be attached to a position recognized as an "eye" is particularly expressed as an "eye-shaped display". To do.

上記課題を解決するために、本発明の第1の態様に係るディスプレイ(以下、「目状ディスプレイ」ともいう。)は、画像を示す光を出力する画面と、少なくとも目の画像を画面に出力させる表示制御手段とを有する画像表示装置と、導光部材とを備えるディスプレイであって、導光部材が、画面に対向して配置された第1の面と、第2の面と、第1の面の第1の開口部から第2の面の第2の開口部に延びる中空の筒状部であって、画面から出力されて第1の開口部に入射した光を反射して第2の開口部から出射させる反射面が内面に形成された筒状部が複数形成されており、画面から出力された画像を示す光を第2の面を介して出力させる部材本体とを備える。 In order to solve the above problems, the display according to the first aspect of the present invention (hereinafter, also referred to as “eye-shaped display”) outputs a screen that outputs light indicating an image and at least an image of eyes on the screen. A display including an image display device having a display control means for making the light guide member, and a first surface, a second surface, and a first surface in which the light guide member is arranged so as to face the screen. A hollow tubular portion extending from the first opening on the surface of the surface to the second opening on the second surface, reflecting the light output from the screen and incident on the first opening. A plurality of tubular portions having a reflective surface emitted from the opening of the above are formed on the inner surface, and the member main body includes a member main body for outputting light indicating an image output from the screen through the second surface.

第1の態様によれば、中空の筒状部が複数形成された導光部材を用いることで、単位体積当たりの質量が小さく、位置ずれ及び脱落が起こりにくいディスプレイを提供することができる。 According to the first aspect, by using the light guide member in which a plurality of hollow tubular portions are formed, it is possible to provide a display in which the mass per unit volume is small and misalignment and dropout are unlikely to occur.

本発明の第2の態様に係るディスプレイは、第1の態様において、第1の面が平面であり、第2の面の少なくとも一部が非平面としたものである。 In the display according to the second aspect of the present invention, in the first aspect, the first surface is flat and at least a part of the second surface is non-planar.

本発明の第3の態様に係るディスプレイは、第1又は第2の態様において、第2の面が、曲面、多角面及び階段状の面のうちの少なくとも1つの面形状の部分を含むように構成したものである。 In the display according to the third aspect of the present invention, in the first or second aspect, the second surface includes at least one surface-shaped portion of a curved surface, a polygonal surface, and a stepped surface. It is composed.

第2及び第3の態様によれば、実際の生物の目のような丸みがあり、中央付近が周縁部よりも厚く、かつ、単位体積当たりの質量が小さいディスプレイを提供することができる。 According to the second and third aspects, it is possible to provide a display that has an eye-like roundness of an actual organism, is thicker in the vicinity of the center than the peripheral portion, and has a small mass per unit volume.

本発明の第4の態様に係るディスプレイは、第1から第3のいずれかの態様において、第1の面が、平面、多角面、円柱面及び円錐面のうちの少なくとも1つとしたものである。 In the display according to the fourth aspect of the present invention, in any one of the first to third aspects, the first surface is at least one of a flat surface, a polygonal surface, a cylindrical surface, and a conical surface. ..

第4の態様によれば、より多様な形状のディスプレイを提供することが可能になる。 According to the fourth aspect, it becomes possible to provide a display having a wider variety of shapes.

本発明の第5の態様に係るディスプレイは、第1から第4のいずれかの態様において、第1の開口部及び第2の開口部の少なくとも一方に配置され、光を拡散する光拡散部材を更に備えるようにしたものである。 The display according to the fifth aspect of the present invention has a light diffusing member arranged in at least one of a first opening and a second opening in any one of the first to fourth aspects to diffuse light. It is intended to be further prepared.

第5の態様によれば、出射光を散乱させることができるので、視野角を広げることができる。 According to the fifth aspect, since the emitted light can be scattered, the viewing angle can be widened.

本発明の第6の態様に係るディスプレイは、第1から第4のいずれかの態様において、第2の面上に配置され、第2の面から出射する光を散乱する光散乱部材を更に備えるようにしたものである。 The display according to the sixth aspect of the present invention further includes a light scattering member which is arranged on the second surface and scatters the light emitted from the second surface in any one of the first to fourth aspects. It was made like this.

第6の態様によれば、入射光及び出射光を拡散させることができるので、視野角を広げることができる。 According to the sixth aspect, since the incident light and the emitted light can be diffused, the viewing angle can be widened.

本発明の第7の態様に係るディスプレイは、第1から第6のいずれかの態様において、表示制御手段が、画像及び文字のうち少なくとも一方を含む情報を画面に表示させるようにしたものである。 In the display according to the seventh aspect of the present invention, in any one of the first to sixth aspects, the display control means causes the display to display information including at least one of an image and characters on the screen. ..

第7の態様によれば、目の画像以外の情報をディスプレイに表示させることができるので、より多様な表示制御を実現することが可能になる。 According to the seventh aspect, information other than the image of the eyes can be displayed on the display, so that more diverse display controls can be realized.

本発明の第8の態様に係るディスプレイは、第1から第7のいずれかの態様において、第2の面側における操作部材の動作を検知するセンサを更に備え、表示制御手段は、センサによって検知された操作部材の動作に応じて画面に出力する画像を変更するようにしたものである。 The display according to the eighth aspect of the present invention further includes a sensor for detecting the operation of the operating member on the second surface side in any one of the first to seventh aspects, and the display control means detects by the sensor. The image to be output to the screen is changed according to the operation of the operating member.

第8の態様によれば、センサにより表示内容を変更させることができるので、より多様な表示制御を実現することが可能になる。 According to the eighth aspect, since the display content can be changed by the sensor, more diverse display control can be realized.

本発明の第9の態様に係るロボットは、顔部と、顔部の前面の取付位置に取り付けられた第1から第8のいずれかの態様のディスプレイと、画像表示装置によって出力される画像を制御する制御手段とを備える。 The robot according to the ninth aspect of the present invention displays the face portion, the display of any one of the first to eighth aspects mounted at the mounting position on the front surface of the face portion, and the image output by the image display device. It is provided with a control means for controlling.

第9の態様によれば、中空の筒状部が複数形成された導光部材を用いることで、ディスプレイの位置ずれ及び脱落が起こりにくいロボットを提供することができ、かつ、ディスプレイの質量に起因してロボットの動作が不安定になるのを防止することができる。 According to the ninth aspect, by using the light guide member in which a plurality of hollow tubular portions are formed, it is possible to provide a robot in which the display is less likely to be displaced and fall off, and it is caused by the mass of the display. Therefore, it is possible to prevent the operation of the robot from becoming unstable.

本発明の第10の態様に係るロボットは、第9の態様において、取付位置には、ディスプレイを取り付けるための凹部が設けられており、ディスプレイは、凹部に取り付けられるようにしたものである。 In the ninth aspect, the robot according to the tenth aspect of the present invention is provided with a recess for mounting the display at the mounting position, and the display is mounted in the recess.

本発明の第11の態様に係るロボットは、第9又は第10の態様において、顔部を含む頭部が取り付けられた首部と、腕部、胴部及び脚部にそれぞれ設けられた可動部のうちの少なくとも1つを動作させる動作手段を更に備え、制御手段は、ディスプレイに表示させる画像の制御と連携して、動作手段による各可動部の動作を制御するようにしたものである。 In the ninth or tenth aspect, the robot according to the eleventh aspect of the present invention has a neck portion to which a head including a face is attached, and movable portions provided on the arms, torso, and legs, respectively. An operation means for operating at least one of them is further provided, and the control means controls the operation of each movable portion by the operation means in cooperation with the control of the image to be displayed on the display.

第11の態様によれば、ディスプレイの動作とロボットの動作を連携させることにより、より多様な感情表現機能を実現することができる。 According to the eleventh aspect, more diverse emotional expression functions can be realized by linking the operation of the display and the operation of the robot.

本発明によれば、中空の筒状部が複数形成された導光部材を用いることで、位置ずれ及び脱落が起こりにくいディスプレイを提供することができる。 According to the present invention, by using a light guide member in which a plurality of hollow tubular portions are formed, it is possible to provide a display in which misalignment and dropout are unlikely to occur.

図1は、本発明の一実施形態に係るディスプレイ(目状ディスプレイ)を備えたロボットを示す外観斜視図である。FIG. 1 is an external perspective view showing a robot provided with a display (eye-shaped display) according to an embodiment of the present invention. 図2は、図1に示すロボットの顔部の正面図である。FIG. 2 is a front view of the face of the robot shown in FIG. 図3は、本発明の一実施形態に係る目状ディスプレイを示す分解斜視図である。FIG. 3 is an exploded perspective view showing an eye-shaped display according to an embodiment of the present invention. 図4は、本発明の一実施形態に係る目状ディスプレイを示す正面図及び断面図である。FIG. 4 is a front view and a cross-sectional view showing an eye-shaped display according to an embodiment of the present invention. 図5Aは、目状ディスプレイの別の実施例(多角面)を示す分解斜視図である。FIG. 5A is an exploded perspective view showing another embodiment (polygonal surface) of the eye-shaped display. 図5Bは、目状ディスプレイの別の実施例(円柱面)を示す分解斜視図である。FIG. 5B is an exploded perspective view showing another embodiment (cylindrical surface) of the eye-shaped display. 図5Cは、目状ディスプレイの別の実施例(任意の曲面)を示す分解斜視図である。FIG. 5C is an exploded perspective view showing another embodiment (arbitrary curved surface) of the eye-shaped display. 図6は、本発明の一実施形態に係る目状ディスプレイを備えたロボットの制御系を示すブロック図である。FIG. 6 is a block diagram showing a control system of a robot provided with an eye-shaped display according to an embodiment of the present invention. 図7は、本発明の一実施形態に係る目状ディスプレイを備えたロボットの制御方法を示すフローチャートである。FIG. 7 is a flowchart showing a control method of a robot provided with an eye-shaped display according to an embodiment of the present invention. 図8Aは、本発明の一実施形態に係る目状ディスプレイの導光部材の製造工程を示す断面図である。FIG. 8A is a cross-sectional view showing a manufacturing process of a light guide member for an eye-shaped display according to an embodiment of the present invention. 図8Bは、本発明の一実施形態に係る目状ディスプレイの導光部材の製造工程を示す断面図である。FIG. 8B is a cross-sectional view showing a manufacturing process of a light guide member for an eye-shaped display according to an embodiment of the present invention. 図8Cは、本発明の一実施形態に係る目状ディスプレイの導光部材の製造工程を示す断面図である。FIG. 8C is a cross-sectional view showing a manufacturing process of a light guide member for an eye-shaped display according to an embodiment of the present invention. 図9は、本発明の一実施形態に係る目状ディスプレイの導光部材の製造工程を示すフローチャートである。FIG. 9 is a flowchart showing a manufacturing process of a light guide member for an eye-shaped display according to an embodiment of the present invention. 図10Aは、落下試験用の導光部材を示す平面図及び側面図である。FIG. 10A is a plan view and a side view showing a light guide member for a drop test. 図10Bは、落下試験用の導光部材の筒状部を拡大して示す平面図である。FIG. 10B is an enlarged plan view showing a tubular portion of the light guide member for the drop test.

以下、添付図面に従って本発明に係るディスプレイ(目状ディスプレイ)及びロボットの実施の形態について説明する。 Hereinafter, embodiments of the display (eye-shaped display) and the robot according to the present invention will be described with reference to the accompanying drawings.

[ロボットの全体構成]
図1は、本発明の一実施形態に係る目状ディスプレイを備えたロボットを示す外観斜視図であり、図2は、図1に示すロボットの顔部の正面図である。
[Overall configuration of robot]
FIG. 1 is an external perspective view showing a robot provided with an eye-shaped display according to an embodiment of the present invention, and FIG. 2 is a front view of a face portion of the robot shown in FIG.

図1に示すように、本実施形態に係るロボット100は、頭部102、胴部108、腕部110及び脚部116を備えており、オペレータの指示により、又は予め用意されたプログラムに従って、目的とする作業を自動的に行うことができる装置である。なお、ロボット100の具体的な形態は、本実施形態に限定されるものではない。顔部を有するロボットであれば、例えば、頭部のみ、頭部と胴部のみ、頭部と腕部のみのロボットにも、本実施形態の目状ディスプレイを適用することが可能である。 As shown in FIG. 1, the robot 100 according to the present embodiment includes a head portion 102, a body portion 108, an arm portion 110, and a leg portion 116, and the purpose of the robot 100 is according to an operator's instruction or a program prepared in advance. It is a device that can automatically perform the work. The specific form of the robot 100 is not limited to this embodiment. The eye-shaped display of the present embodiment can be applied to a robot having a face, for example, a robot having only a head, only a head and a body, and only a head and an arm.

なお、ロボット100の各部を作成するための材料は特に限定されないが、頭部102、胴部108、腕部110、脚部116等のオペレータが触れる可能性が高い場所は、耐久性が高く、軟質の素材(例えば、樹脂、軟質ゴム(一例で硬度70以下))で作成されることが好ましい。 The material for creating each part of the robot 100 is not particularly limited, but the head 102, the body 108, the arm 110, the leg 116, and other places where the operator is likely to touch are highly durable. It is preferably made of a soft material (for example, resin, soft rubber (hardness 70 or less in one example)).

頭部102は、胴部108の上端部に取り付けられる。頭部102の上端部(頭頂部)には、アンテナ104が取り付けられており、無線による通信が可能となっている。 The head 102 is attached to the upper end of the body 108. An antenna 104 is attached to the upper end (top of the head) of the head 102, and wireless communication is possible.

図2に示すように、頭部102の前面(以下、顔部という。)には、目状ディスプレイ10及び口部106が取り付けられている。 As shown in FIG. 2, an eye-shaped display 10 and a mouth 106 are attached to the front surface of the head 102 (hereinafter, referred to as a face).

目状ディスプレイ10は、顔部の左右の対称の位置にある取付位置に取り付けられる。目状ディスプレイ10には、目の画像が表示可能となっている。なお、目状ディスプレイ10については、図3等を用いて後述する。 The eye-shaped display 10 is attached to a mounting position at a symmetrical position on the left and right sides of the face. An image of the eyes can be displayed on the eye-shaped display 10. The eye-shaped display 10 will be described later with reference to FIG. 3 and the like.

口部106には、発光部(例えば、発光ダイオード)が埋め込まれており、目状ディスプレイ10、頭部102、腕部110及び脚部116の動作に合わせた口を示す画像を表示することが可能となっている。 A light emitting unit (for example, a light emitting diode) is embedded in the mouth portion 106, and an image showing the mouth according to the movement of the eye-shaped display 10, the head 102, the arm 110, and the leg 116 can be displayed. It is possible.

胴部108の上端部と下端部の間には、腕部駆動軸112が左右の対称の位置に1つずつ設けられており、腕部110は、左右の腕部駆動軸112にそれぞれ取り付けられる。腕部駆動軸112は、モータ(図6の動作制御部162の一部)に取り付けられており、腕部110は、腕部駆動軸112を回転軸として回転可能となっている。さらに、腕部110は、関節部110Aを支点として回動可能となっている。腕部110の先端には、指部を備えた手部110Bが設けられており、手部110Bにより物を把持したり、指部を用いて機器を操作したり、プログラムに定められた作業をすることが可能となっている。 An arm drive shaft 112 is provided at symmetrical positions on the left and right between the upper end and the lower end of the body 108, and the arm 110 is attached to the left and right arm drive shafts 112, respectively. .. The arm drive shaft 112 is attached to a motor (a part of the motion control unit 162 of FIG. 6), and the arm 110 can rotate around the arm drive shaft 112 as a rotation axis. Further, the arm portion 110 is rotatable around the joint portion 110A as a fulcrum. A hand 110B having a finger is provided at the tip of the arm 110, and the hand 110B grips an object, operates the device using the finger, and performs the work specified in the program. It is possible to do.

胴部108の下端部には、脚部駆動軸118が左右の対称の位置に1つずつ設けられており、脚部116は、脚部駆動軸118にそれぞれ取り付けられる。脚部駆動軸118は、モータに取り付けられている。脚部116は、脚部駆動軸118を回転軸として回転可能な車輪状であり、ロボット100は、脚部116を回転させることにより、前進及び後退することができる。また、ロボット100の胴部108には、脚部116の胴部108に対する角度を変更するためのステアリング機構(図6の動作制御部162の一部)が内蔵されている。左右の脚部116は、ロボット100が顔部の正面方向(X方向)に前進又は後退する場合には平行になっているが、このステアリング機構により、脚部116の胴部108に対する角度を変更することにより、ロボット100の前進及び後退の方向を変更することが可能となっている。これにより、ロボット100は、前後左右に移動可能となっている。 At the lower end of the body 108, one leg drive shaft 118 is provided at symmetrical positions on the left and right, and the leg 116 is attached to the leg drive shaft 118, respectively. The leg drive shaft 118 is attached to the motor. The leg 116 has a wheel shape that can rotate around the leg drive shaft 118 as a rotation axis, and the robot 100 can move forward and backward by rotating the leg 116. Further, the body 108 of the robot 100 has a built-in steering mechanism (a part of the motion control unit 162 of FIG. 6) for changing the angle of the legs 116 with respect to the body 108. The left and right legs 116 are parallel when the robot 100 moves forward or backward in the front direction (X direction) of the face, but the steering mechanism changes the angle of the legs 116 with respect to the body 108. By doing so, it is possible to change the forward and backward directions of the robot 100. As a result, the robot 100 can move back and forth and left and right.

なお、口部106、腕部110及び脚部116等の構成は、上記の実施形態に限定されるものではない。口部106には、発光部に加えて、又は発光部に代えて、例えば、口部106に可動部を設けてもよい。また、刺股状の手部110Bに代えて5本指の手部を設けてもよいし、車輪状の脚部116に代えて2足歩行用の脚部を設けてもよい。また、腕部110及び脚部116の数は、2に限定されるものではない。 The configuration of the mouth portion 106, the arm portion 110, the leg portion 116, and the like is not limited to the above embodiment. The mouth 106 may be provided with a movable portion in addition to or in place of the light emitting portion, for example, in the mouth 106. Further, a five-fingered hand portion may be provided instead of the thigh-shaped hand portion 110B, or a bipedal walking leg portion may be provided instead of the wheel-shaped leg portion 116. Further, the number of arms 110 and legs 116 is not limited to 2.

[目状ディスプレイ]
図3は、本発明の一実施形態に係る目状ディスプレイを示す分解斜視図であり、図4の上部はその平面図であり、図4の下部はその断面図である。
[Eye display]
FIG. 3 is an exploded perspective view showing an eye-shaped display according to an embodiment of the present invention, the upper part of FIG. 4 is a plan view thereof, and the lower part of FIG. 4 is a sectional view thereof.

図3に示すように、本実施形態に係る目状ディスプレイ10は、導光部材12と、画像表示装置30とを備えている。なお、以下の説明では、導光部材12の延びる方向をz方向とする3次元直交座標系を用いて説明する。 As shown in FIG. 3, the eye-shaped display 10 according to the present embodiment includes a light guide member 12 and an image display device 30. In the following description, a three-dimensional Cartesian coordinate system in which the extending direction of the light guide member 12 is the z direction will be described.

画像表示装置30の表示画面32は平面状である。画像表示装置30としては、例えば、液晶ディスプレイのようにバックライトを備えたもの、又は有機EL(electroluminescence)ディスプレイ又は無機ELディスプレイのように自発光機能を有するものが用いられる。 The display screen 32 of the image display device 30 is flat. As the image display device 30, for example, a device having a backlight such as a liquid crystal display, or a device having a self-luminous function such as an organic EL (electroluminescence) display or an inorganic EL display is used.

導光部材12は、表示画面32から出射した光を、ロボット100の正面側に導光(伝送)するための部材である。導光部材12は円柱状であり、その直径は、一例で1〜10cmのオーダの範囲で、その高さH1は、一例で1〜10cmのオーダの範囲で選択可能となっている。導光部材12(部材本体)の材料としては、例えば、樹脂(合成樹脂(いわゆるプラスチック)を含む。)又はゴムを用いることができる。樹脂の種類としては、例えば、ポリアミド、ポリオキシエチレン、ポリエステル、ポリエチレンテレフタレート、ポリイミド、ポリスチレン、ポリメチルメタクリレート、ポリカーボネート、ポリプロピレン、ABS樹脂(アクリロニトリル(Acrylonitrile)、ブタジエン(Butadiene)、スチレン(Styrene)共重合合成樹脂)等を用いることができる。図3に示すように、導光部材12の下面(第1の面、入射面)14は平面形状であり、上面(第2の面、出射面)16は非平面形状である。導光部材12の下面14は、平面状の表示画面32に取り付けられる。画像表示装置30は、頭部102の正面(顔部)の左右2か所に設けられた凹部102Aの底部に取り付けられる。導光部材12の高さ(z方向の長さ)H1は、凹部102Aの深さD2より大きく、導光部材12の上面16は、凹部102Aからロボット100の正面側に露出する。なお、H1≦D2としてもよい。 The light guide member 12 is a member for guiding (transmitting) the light emitted from the display screen 32 to the front side of the robot 100. The light guide member 12 has a columnar shape, and its diameter can be selected in the range of 1 to 10 cm in one example, and its height H1 can be selected in the range of 1 to 10 cm in one example. As the material of the light guide member 12 (member body), for example, resin (including synthetic resin (so-called plastic)) or rubber can be used. Examples of the type of resin include polyamide, polyoxyethylene, polyester, polyethylene terephthalate, polyimide, polystyrene, polymethylmethacrylate, polycarbonate, polypropylene, ABS resin (acrylonitrile, butadiene (Butadiene), styrene (Styrene) copolymerization. Synthetic resin) and the like can be used. As shown in FIG. 3, the lower surface (first surface, incident surface) 14 of the light guide member 12 has a planar shape, and the upper surface (second surface, exit surface) 16 has a non-planar shape. The lower surface 14 of the light guide member 12 is attached to the flat display screen 32. The image display device 30 is attached to the bottom of the recesses 102A provided at two locations on the left and right of the front surface (face portion) of the head 102. The height (length in the z direction) H1 of the light guide member 12 is larger than the depth D2 of the recess 102A, and the upper surface 16 of the light guide member 12 is exposed from the recess 102A to the front side of the robot 100. In addition, H1 ≦ D2 may be set.

なお、液晶ディスプレイあるいは有機EL又は無機ELディスプレイを、単独で用いる場合、一般に広視野角が求められる。しかしながら、本実施形態では、画像表示装置30からの光は導光部材12に導かれ、導光部材12の中は直進する光の透過率が高い。このため、本実施形態に係る画像表示装置30の表示画面32については、視野角が狭い(一例で60°)ことが好ましい。したがって、視野角が狭い表示画面32を用いるか、表示画面32に視野角を狭めるためのフィルム等の部材(例えば、直線上の偏光板が設けられた積層フィルム)を設けることが好ましい。 When a liquid crystal display, an organic EL display, or an inorganic EL display is used alone, a wide viewing angle is generally required. However, in the present embodiment, the light from the image display device 30 is guided to the light guide member 12, and the light transmitting through the light guide member 12 has a high transmittance. Therefore, it is preferable that the display screen 32 of the image display device 30 according to the present embodiment has a narrow viewing angle (60 ° in one example). Therefore, it is preferable to use the display screen 32 having a narrow viewing angle, or to provide the display screen 32 with a member such as a film for narrowing the viewing angle (for example, a laminated film provided with a linear polarizing plate).

導光部材12には、下面14から上面16に(z方向に沿って)延びる中空の筒状部18が複数形成される。筒状部18の直径は、一例で1μm〜1mmのオーダの範囲で選択可能となっている。なお、図4では、簡単のため、筒状部18を1つだけ示しているが、筒状部18は、実際には複数形成される。以下、筒状部18の下面14側の開口部(第1の開口部)を18Aとし、筒状部18の上面16側の開口部(第2の開口部)を18Bとする。なお、第1の開口部18A及び第2の開口部18Bの平面形状を円形としているが、本実施形態はこれに限定されるものではない。例えば、第1の開口部18A及び第2の開口部18Bの平面形状は多角形であってもよい。 The light guide member 12 is formed with a plurality of hollow tubular portions 18 extending from the lower surface 14 to the upper surface 16 (along the z direction). The diameter of the tubular portion 18 can be selected in the range of 1 μm to 1 mm in one example. In FIG. 4, for the sake of simplicity, only one tubular portion 18 is shown, but a plurality of tubular portions 18 are actually formed. Hereinafter, the opening (first opening) on the lower surface 14 side of the tubular portion 18 is referred to as 18A, and the opening (second opening) on the upper surface 16 side of the tubular portion 18 is referred to as 18B. The planar shape of the first opening 18A and the second opening 18B is circular, but the present embodiment is not limited to this. For example, the planar shape of the first opening 18A and the second opening 18B may be polygonal.

図4に示すように、本実施形態に係る目状ディスプレイ10では、画像表示装置30の表示画面32から出力された光L1は、導光部材12の下面14側の第1の開口部18Aに入射する。各筒状部18の内面には、反射膜が設けられている。ここで、筒状部18の内面の反射膜の内部反射率は、一例で30%以上であることが好ましい。第1の開口部18Aから入射した光L1は、筒状部18の内部で反射された後、第2の開口部18Bから出射する。これにより、表示画面32に出力された画像が導光部材12を介して非球面の上面16に投影されるので、オペレータは、立体感があり、より生物の目に近い目状ディスプレイにより画像を視認することが可能になる。 As shown in FIG. 4, in the eye-shaped display 10 according to the present embodiment, the light L1 output from the display screen 32 of the image display device 30 is transmitted to the first opening 18A on the lower surface 14 side of the light guide member 12. Incident. A reflective film is provided on the inner surface of each tubular portion 18. Here, the internal reflectance of the reflective film on the inner surface of the tubular portion 18 is preferably 30% or more in one example. The light L1 incident from the first opening 18A is reflected inside the tubular portion 18 and then emitted from the second opening 18B. As a result, the image output on the display screen 32 is projected onto the upper surface 16 of the aspherical surface via the light guide member 12, so that the operator can view the image on the eye-shaped display that has a three-dimensional effect and is closer to the eyes of living organisms. It becomes possible to visually recognize.

本実施形態によれば、単位体積当たりの質量が小さい材料からなり、中空の筒状部18が複数形成された導光部材12を用いることで、位置ずれ及び脱落が起こりにくい目状ディスプレイ10を提供することができる。さらに、本実施形態によれば、非球面の目状ディスプレイ10を実現し、かつ、ロボット100の軽量化を図ることができるので、目状ディスプレイの重量によってロボット100の動作が阻害されるのを防止することができる。 According to the present embodiment, by using the light guide member 12 made of a material having a small mass per unit volume and having a plurality of hollow tubular portions 18, the eye-shaped display 10 is less likely to be misaligned and fall off. Can be provided. Further, according to the present embodiment, the aspherical eye-shaped display 10 can be realized and the weight of the robot 100 can be reduced. Therefore, the weight of the eye-shaped display hinders the operation of the robot 100. Can be prevented.

なお、図4に示す例では、導光部材12と凹部102Aの間に隙間が設けられているが、導光部材12と凹部102Aとの間に隙間が生じないようにしてもよい。 In the example shown in FIG. 4, a gap is provided between the light guide member 12 and the recess 102A, but the gap may not be formed between the light guide member 12 and the recess 102A.

また、第1の面も非球面(例えば、平面、多角面、円柱面及び円錐面のうちの少なくとも1つ)としてもよい。また、凹部102Aを設けずに、目状ディスプレイ10を頭部102の表面に直接取り付けるようにしてもよい。また、導光部材12は、表示画面32に直接取り付ける(貼り付ける)のではなく、導光部材12と表示画面32との間に、光を透過する部材を挟むようにしてもよい。また、下面14も非球面(例えば、曲面、多角面及び階段状の面のうちの少なくとも1つの面形状の部分を含む。)としてもよい。 The first surface may also be an aspherical surface (for example, at least one of a plane, a polygonal surface, a cylindrical surface, and a conical surface). Further, the eye-shaped display 10 may be directly attached to the surface of the head 102 without providing the recess 102A. Further, the light guide member 12 may not be directly attached (attached) to the display screen 32, but may have a member that transmits light sandwiched between the light guide member 12 and the display screen 32. Further, the lower surface 14 may also be an aspherical surface (for example, including at least one surface-shaped portion of a curved surface, a polygonal surface, and a stepped surface).

[導光部材の上面]
次に、導光部材12の上面16に施す処理について説明する。
[Upper surface of light guide member]
Next, the process applied to the upper surface 16 of the light guide member 12 will be described.

導光部材12の上面16には、光を散乱するための光散乱部材(光散乱膜)を設けることが可能である。この光散乱部材は、例えば、導光部材12の上面16に光を透過する層(例えば、可視光を透過する樹脂の層)を設けて、この層の表面に,光を透過する樹脂又はポリマーに光を散乱させる粒子(酸化チタン(TiO))を分散させたものをコーティングするか、又は導光部材12に練り込むことによって形成することができる。また、光散乱部材としては、表面に微細な凹凸を設けた部材(膜)を用いてもよい。これにより、出射光を散乱させることができるので、視野角を広げることができる。 A light scattering member (light scattering film) for scattering light can be provided on the upper surface 16 of the light guide member 12. In this light scattering member, for example, a layer that transmits light (for example, a layer of a resin that transmits visible light) is provided on the upper surface 16 of the light guide member 12, and a resin or polymer that transmits light is provided on the surface of this layer. It can be formed by coating a material in which particles (titanium oxide (TiO 2 )) that scatter light are dispersed in the light, or by kneading the light guide member 12. Further, as the light scattering member, a member (film) having fine irregularities on the surface may be used. As a result, the emitted light can be scattered, so that the viewing angle can be widened.

また、導光部材12の下面14及び上面16には、それぞれ入射光及び出射光を拡散するための拡散部材を設けることが可能である。この光拡散部材は、上記光散乱部材と同様にして形成することができる。これにより、入射光及び出射光を拡散させることができるので、視野角を広げることができる。なお、この拡散部材は、導光部材12の下面14及び上面16のいずれか一方に設けるようにしてもよい。 Further, the lower surface 14 and the upper surface 16 of the light guide member 12 can be provided with a diffusion member for diffusing the incident light and the emitted light, respectively. This light diffusing member can be formed in the same manner as the light scattering member. As a result, the incident light and the emitted light can be diffused, so that the viewing angle can be widened. The diffusion member may be provided on either the lower surface 14 or the upper surface 16 of the light guide member 12.

また、導光部材12の上面16には、タッチセンサ(上面16(第2の面)側における操作部材の動作を検知するセンサの一例)を設けて、オペレータからの操作入力を受け付けるようにしてもよい。このタッチセンサを用いたロボット100の操作方法については、図6及び図7を用いて後述する。 Further, a touch sensor (an example of a sensor for detecting the operation of the operation member on the upper surface 16 (second surface) side) is provided on the upper surface 16 of the light guide member 12 so as to receive an operation input from the operator. May be good. The operation method of the robot 100 using this touch sensor will be described later with reference to FIGS. 6 and 7.

また、導光部材12の上面16には、反射防止膜を設けることも可能である。反射防止膜としては、例えば、導光部材12の上面16に光を透過する層(例えば、可視光を透過する樹脂の層)を設けて、この層の表面に、フッ化マグネシウム(MgF)コーティングを施すことにより形成することができる。ここで、この反射防止膜における反射率は5%以下であることが好ましい。これにより、導光部材12の上面16において、外部の光源(例えば、電灯)の映り込みによる表面反射を防止することができるので、上面16の画像の視認性を高めることができる。なお、反射防止膜は、タッチセンサの表面に施してもよい。 It is also possible to provide an antireflection film on the upper surface 16 of the light guide member 12. As the antireflection film, for example, a layer that transmits light (for example, a layer of a resin that transmits visible light) is provided on the upper surface 16 of the light guide member 12, and magnesium fluoride (MgF 2 ) is provided on the surface of this layer. It can be formed by applying a coating. Here, the reflectance of this antireflection film is preferably 5% or less. As a result, on the upper surface 16 of the light guide member 12, surface reflection due to reflection of an external light source (for example, an electric lamp) can be prevented, so that the visibility of the image on the upper surface 16 can be improved. The antireflection film may be applied to the surface of the touch sensor.

なお、図3及び図4に示す例では、導光部材12は円柱状であり、導光部材12の上面16は、上(顔部の正面側、+z方向)に凸の2次曲線を導光部材12の中心軸AX1の回りに回転させた回転2次曲面(例えば、球面、回転放物面)となっているが、本発明はこれに限定されるものではない。例えば、導光部材12の形状は、図5A及び図5Bに示すように、4角柱であってもよいし、多角柱又は錐台(円錐台又は角錐台)であってもよい。また、導光部材12の上面16は、図5Aに示すように、複数の平面が組み合わされた多角面であってもよいし、図5Bに示すように、円柱面又は断面C字状の面であってもよい。また、導光部材12の上面16は、図5Cに示すように、任意の曲面(例えば、2次曲面)であってもよい。また、導光部材12の上面16は、下(−z方向)に凸の2次曲線を中心軸AX1の周りに回転させた回転2次曲面であってもよい。 In the examples shown in FIGS. 3 and 4, the light guide member 12 is cylindrical, and the upper surface 16 of the light guide member 12 guides an upwardly convex quadric curve (on the front side of the face, in the + z direction). Although it is a rotating quadric surface (for example, a spherical surface, a rotating paraboloid) rotated around the central axis AX1 of the optical member 12, the present invention is not limited to this. For example, as shown in FIGS. 5A and 5B, the shape of the light guide member 12 may be a quadrangular prism, a polygonal prism or a truncated cone (a truncated cone or a truncated cone). Further, the upper surface 16 of the light guide member 12 may be a polygonal surface in which a plurality of planes are combined as shown in FIG. 5A, or a cylindrical surface or a C-shaped cross section as shown in FIG. 5B. It may be. Further, the upper surface 16 of the light guide member 12 may be an arbitrary curved surface (for example, a quadric surface) as shown in FIG. 5C. Further, the upper surface 16 of the light guide member 12 may be a rotational quadric surface obtained by rotating a quadric curve convex downward (in the −z direction) around the central axis AX1.

[筒状部]
次に、筒状部18について説明する。なお、以下の説明では、3次元直交座標系の原点Oが導光部材12の中心軸AX1上にあるとして説明する。
[Cylindrical part]
Next, the tubular portion 18 will be described. In the following description, it is assumed that the origin O of the three-dimensional Cartesian coordinate system is on the central axis AX1 of the light guide member 12.

導光部材12の下面14が平面であり、導光部材12の上面16は非平面であるため、導光部材12の平面位置(xy平面状の位置)によって第1の開口部18Aと第2の開口部18Bの間の距離H2が異なる。図3及び図4に示す例では、上面16は、中心軸AX1を回転中心とした回転2次曲面であるため、xy平面において、筒状部18の位置が導光部材12の中心に近いほど((x+y1/2の値が小さいほど)、光の伝播経路の長さH2の値が大きくなり、画像が暗くなってしまう。 Since the lower surface 14 of the light guide member 12 is flat and the upper surface 16 of the light guide member 12 is non-planar, the first opening 18A and the second opening 18A and the second opening 18A and the second depending on the plane position (xy plane position) of the light guide member 12. The distance H2 between the openings 18B is different. In the examples shown in FIGS. 3 and 4, since the upper surface 16 is a rotational quadric surface centered on the central axis AX1, the closer the position of the tubular portion 18 is to the center of the light guide member 12 on the xy plane. (The smaller the value of (x 2 + y 2 ) 1/2 ), the larger the value of the length H2 of the light propagation path, and the darker the image.

このため、xy平面において、筒状部18の位置が導光部材12の中心に近いほど((x+y1/2の値が小さいほど、H2の値が大きい領域ほど)、(1)筒状部18の反射面の反射率を高くする、(2)筒状部18の径を太くする、(3)筒状部18の単位面積当たりの数を多くする、又は(4)上面16に設けるフィルタ(可視光を透過するフィルタ(膜))における光の透過率を高くすることが好ましい。また、(5)筒状部18の少なくとも一部について、第1の開口部18Aの径が第2の開口部18Bの径よりも大きい先細形状(例えば、筒状部18の少なくとも一部をテーパ形状とした形状)とし、xy平面において、筒状部18の位置が導光部材12の中心に近いほど((x+y1/2の値が小さいほど、H2の値が大きい領域ほど)、先細形状に加工した筒状部18の数の単位面積当たりの数(割合)を少なくするようにしてもよい。また、(1)から(5)の組み合わせにより、筒状部18を設計してもよい。これにより、H2の値が大きく、光L1の伝播経路が長い位置の画像が、伝播経路が短い場所と比較して暗くなることを防止することができ、画像の明るさを導光部材12の位置によらず均等にすることができる。 Therefore, in the xy plane, the closer the position of the tubular portion 18 is to the center of the light guide member 12 (the smaller the value of (x 2 + y 2 ) 1/2 , the larger the region where the value of H2 is), (1 ) Increase the reflectance of the reflective surface of the tubular portion 18, (2) increase the diameter of the tubular portion 18, (3) increase the number of tubular portions 18 per unit area, or (4) increase the upper surface. It is preferable to increase the light transmittance in the filter (filter (film) that transmits visible light) provided in 16. Further, (5) for at least a part of the tubular portion 18, a tapered shape in which the diameter of the first opening 18A is larger than the diameter of the second opening 18B (for example, at least a part of the tubular portion 18 is tapered. The closer the position of the tubular portion 18 is to the center of the light guide member 12 ((x 2 + y 2 ), the smaller the value of 1/2 , and the larger the value of H2, the larger the region. ), The number (ratio) of the number of tubular portions 18 processed into a tapered shape per unit area may be reduced. Further, the tubular portion 18 may be designed by combining (1) to (5). As a result, it is possible to prevent the image at the position where the value of H2 is large and the propagation path of the light L1 is long from becoming darker than the place where the propagation path is short, and the brightness of the image is adjusted by the light guide member 12. It can be evened regardless of the position.

なお、本実施形態では、筒状部18の配置、配置密度又は形状を変えることにより、同じ明度の画像に対して、導光部材12の上面16における光量が不均一になるのを防止するようにしたが、本発明はこれに限定されるものではない。例えば、表示画面32の位置ごとに対向する筒状部18のH2の値のデータを作成しておき、表示画面32の位置ごとに、光量を調整する制御(例えば、同じ明度の画像に対して、H2の値が大きい領域ほど、出力光量を大きくする)を行うようにしてもよい。 In this embodiment, by changing the arrangement, arrangement density, or shape of the tubular portion 18, it is possible to prevent the amount of light on the upper surface 16 of the light guide member 12 from becoming uneven with respect to an image having the same brightness. However, the present invention is not limited to this. For example, control for creating data on the value of H2 of the tubular portion 18 facing each other for each position of the display screen 32 and adjusting the amount of light for each position of the display screen 32 (for example, for an image having the same brightness). , The output light amount is increased as the value of H2 is larger).

なお、筒状部18は、導光部材12の平面状で、不均一な間隔(非等間隔)で配置されることが好ましい。例えば、筒状部18は、xy平面において、ペンローズタイルの頂点の位置に配置されるようにしてもよい。また、筒状部18は、フィボナッチ数の間隔で配置されるようにしてもよい。これにより、第2の開口部18Bが等間隔で配置された場合に、等間隔の第2の開口部18Bから出射する光L1の干渉によって生じ得るモアレの発生を防止することができる。 The tubular portions 18 are preferably arranged in a planar shape of the light guide member 12 at non-uniform intervals (non-equal intervals). For example, the tubular portion 18 may be arranged at the position of the apex of the Penrose tile in the xy plane. Further, the tubular portions 18 may be arranged at intervals of the Fibonacci number. As a result, when the second openings 18B are arranged at equal intervals, it is possible to prevent the occurrence of moire that may occur due to the interference of the light L1 emitted from the second openings 18B at equal intervals.

また、筒状部18が、所謂フィボナッチの長方形の頂点に配置されるようにしてもよい。例えば、面積のより大きい長方形(すなわち、頂点の間隔がより広い長方形)が、H2の値がより小さい領域(すなわち、光の伝播経路が短い領域)に配置され、面積のより小さい長方形(すなわち、頂点の間隔がより狭い長方形)が、H2の値がより大きい領域(すなわち、光の伝播経路が長い領域)に配置されるようにして、筒状部18がその頂点の位置に配置されるようにしてもよい。これにより、光の伝播経路が短い領域ほど、筒状部18の単位面積当たりの数を減らし、かつ、筒状部18を非等間隔で配置することができるので、導光部材12の上面16において、明度が低い領域が生じるのを防止し、かつ、モアレの発生を防止することができる。 Further, the tubular portion 18 may be arranged at the apex of the so-called Fibonacci rectangle. For example, a rectangle with a larger area (ie, a rectangle with wider vertices spacing) is placed in a region with a smaller H2 value (ie, a region with a shorter light propagation path) and a rectangle with a smaller area (ie, the rectangle). The tubular portion 18 is located at the apex so that the rectangle with the narrower apex spacing is located in the area where the H2 value is larger (ie, the area where the light propagation path is longer). It may be. As a result, the shorter the light propagation path is, the smaller the number of tubular portions 18 per unit area can be reduced, and the tubular portions 18 can be arranged at non-equal intervals. Therefore, the upper surface 16 of the light guide member 12 In the above, it is possible to prevent the occurrence of a region having low brightness and prevent the occurrence of moire.

[ロボット及び目状ディスプレイの制御系]
図6は、本発明の一実施形態に係る目状ディスプレイを備えたロボットの制御系を示すブロック図である。
[Control system for robots and eye-shaped displays]
FIG. 6 is a block diagram showing a control system of a robot provided with an eye-shaped display according to an embodiment of the present invention.

図6に示すように、本実施形態に係るロボット100は、制御部150、操作部152、メモリ154、電源回路156、画像メモリ158、出力制御部160、動作制御部162、通信インターフェース(I/F)164、音声入出力部166及び画像表示装置30を備える。画像表示装置30は、ディスプレイ制御部34、ディスプレイ記憶部36及び通信インターフェース(I/F)38を備えている。ロボット100の制御部150と、画像表示装置30とは、I/F164及びI/F38を介して通信可能に接続されている。 As shown in FIG. 6, the robot 100 according to the present embodiment includes a control unit 150, an operation unit 152, a memory 154, a power supply circuit 156, an image memory 158, an output control unit 160, an operation control unit 162, and a communication interface (I / O). F) 164, an audio input / output unit 166, and an image display device 30 are provided. The image display device 30 includes a display control unit 34, a display storage unit 36, and a communication interface (I / F) 38. The control unit 150 of the robot 100 and the image display device 30 are communicably connected via I / F 164 and I / F 38.

制御部(制御手段)150は、本実施形態に係るロボット100の各部を統括制御する演算装置であり、操作部152及びタッチセンサ50からの操作入力、又はネットワークNWを介してアンテナ104によって受信された外部機器300(例えば、無線式のコントローラ、パーソナルコンピュータ等)からの指示入力に応じて、ロボット100の各部に制御信号を送信し、ロボット100の各部の動作を制御する。 The control unit (control means) 150 is a computing device that comprehensively controls each unit of the robot 100 according to the present embodiment, and is received by the antenna 104 via the operation input from the operation unit 152 and the touch sensor 50 or the network NW. A control signal is transmitted to each part of the robot 100 in response to an instruction input from an external device 300 (for example, a wireless controller, a personal computer, etc.) to control the operation of each part of the robot 100.

操作部152は、ユーザからの操作入力を受け付けるための手段であり、例えば、電源スイッチ、操作スイッチ、文字入力のためのキーボード等を含んでいる。なお、操作部152は、ロボット100に内蔵されていてもよいし、有線接続(例えば、USB(Universal Serial Bus))、無線接続(Bluetooth(登録商標))等により接続可能となってもよい。 The operation unit 152 is a means for receiving an operation input from a user, and includes, for example, a power switch, an operation switch, a keyboard for character input, and the like. The operation unit 152 may be built in the robot 100, or may be connected by a wired connection (for example, USB (Universal Serial Bus)), a wireless connection (Bluetooth (registered trademark)), or the like.

メモリ154は、制御部150がロボット100の動作に係る演算を行うために使用するプログラムが格納される記憶装置である。プログラムとしては、例えば、操作入力に応じて、頭部102、腕部110及び脚部116の動作を制御するための動作制御プログラムと、目状ディスプレイ10の表示内容を制御するための表示制御プログラムが含まれる。 The memory 154 is a storage device in which a program used by the control unit 150 to perform an operation related to the operation of the robot 100 is stored. The programs include, for example, an motion control program for controlling the motions of the head 102, the arms 110, and the legs 116 according to the operation input, and a display control program for controlling the display contents of the eye-shaped display 10. Is included.

電源回路156は、ロボット100の各部に電力を供給するための装置であり、充電式のバッテリを含んでいる。 The power supply circuit 156 is a device for supplying electric power to each part of the robot 100, and includes a rechargeable battery.

画像メモリ158は、画像表示装置30に出力するための目の画像を含む画像情報と、文字情報とが格納されている。制御部150は、これらの画像情報及び文字情報を目状ディスプレイ10に表示させることが可能となっている。なお、画像メモリ158は、画像表示装置30に設けられていてもよい。 The image memory 158 stores image information including an eye image for output to the image display device 30 and character information. The control unit 150 can display these image information and character information on the eye-shaped display 10. The image memory 158 may be provided in the image display device 30.

メモリ154及び画像メモリ158としては、例えば、HDD(Hard Disk Drive)等の磁気ディスクを含む装置、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)等のフラッシュメモリを含む装置等を用いることができる。 As the memory 154 and the image memory 158, for example, a device including a magnetic disk such as an HDD (Hard Disk Drive), a device including a flash memory such as an eMMC (embedded Multi Media Card), an SSD (Solid State Drive), or the like is used. Can be done.

出力制御部(表示制御手段)160は、制御部150からの指示に応じて、画像メモリ158から画像を読み出して、画像表示装置30に出力する。 The output control unit (display control means) 160 reads an image from the image memory 158 and outputs the image to the image display device 30 in response to an instruction from the control unit 150.

動作制御部(動作手段)162は、腕部110及び脚部116を駆動するためのモータと、脚部116を駆動するためのステアリング機構とを備えており、制御部150からの制御信号に従って各部の動作を制御する。 The motion control unit (operation means) 162 includes a motor for driving the arm 110 and the leg 116, and a steering mechanism for driving the leg 116, and each unit follows a control signal from the control unit 150. Control the operation of.

音声入出力部166は、例えば、音声を出力するためのスピーカと、音声を収集するためのマイクロフォンとを備えている。音声入出力部166は、音声による指示入力を受け付けたり、制御部150からの制御信号に応じて音声を出力することが可能となっている。なお、音声の出力と連携して、口部106の発光部を発光又は明滅させるようにしてもよい。 The voice input / output unit 166 includes, for example, a speaker for outputting voice and a microphone for collecting voice. The voice input / output unit 166 can receive a voice instruction input and output voice in response to a control signal from the control unit 150. In addition, in cooperation with the output of voice, the light emitting portion of the mouth portion 106 may emit light or blink.

ディスプレイ制御部(表示制御手段)34は、画像表示装置30の各部の動作を統括制御する演算装置であり、制御部150からの制御信号に従って表示画面32に出力される画像の制御(表示画像の変更、明度の調整等)を行う。 The display control unit (display control means) 34 is an arithmetic unit that collectively controls the operation of each unit of the image display device 30, and controls an image output to the display screen 32 according to a control signal from the control unit 150 (display image). Change, adjust brightness, etc.).

ディスプレイ記憶部36は、ディスプレイ制御部34が実行する制御プログラムが格納される不揮発性メモリと、出力制御部160により出力された画像を一時記憶するバッファメモリとを備えている。 The display storage unit 36 includes a non-volatile memory in which a control program executed by the display control unit 34 is stored, and a buffer memory for temporarily storing an image output by the output control unit 160.

タッチセンサ50(上面16(第2の面)側における操作部材の動作を検知するセンサの一例)は、目状ディスプレイ10の導光部材12の上面16に設けられている。タッチセンサ50は、例えば、静電容量型のものを用いることができる。静電容量型のタッチセンサ50では、オペレータの手、指又は先端部に導電性を有する導電性部材が取り付けられたペン等(以下、手、指及びペン等を「導電性操作部材」と総称する。)がタッチセンサ50に接触するか又は近づくと、タッチセンサ50の表面の導電膜と導電性操作部材との間の静電容量が変化し、タッチセンサ50は、この静電容量の変化を検知することにより、オペレータの操作の内容(例えば、タッチされた位置、スワイプ動作)を検知する。タッチセンサ50により操作入力が検知されると、その操作入力内容は、制御部150に伝達される。制御部150は、タッチセンサ50により検知された操作入力の内容に従って、ロボット100の各部を制御する。 The touch sensor 50 (an example of a sensor that detects the operation of the operating member on the upper surface 16 (second surface) side) is provided on the upper surface 16 of the light guide member 12 of the eye-shaped display 10. As the touch sensor 50, for example, a capacitance type touch sensor 50 can be used. In the capacitance type touch sensor 50, a pen or the like (hereinafter, the hand, finger, pen, etc.) to which a conductive member having conductivity is attached to the operator's hand, finger, or tip is collectively referred to as a "conductive operating member". When the touch sensor 50 comes into contact with or approaches the touch sensor 50, the capacitance between the conductive film on the surface of the touch sensor 50 and the conductive operating member changes, and the touch sensor 50 changes the capacitance. By detecting, the content of the operator's operation (for example, the touched position, the swipe operation) is detected. When the operation input is detected by the touch sensor 50, the operation input content is transmitted to the control unit 150. The control unit 150 controls each unit of the robot 100 according to the content of the operation input detected by the touch sensor 50.

タッチセンサ50におけるタッチ操作の検知方式としては、静電容量型以外の方式、例えば、抵抗膜方式等を用いることも可能である。抵抗膜方式のように圧力の負荷を検知する方式(感圧式)のタッチセンサ50を用いる場合、タッチセンサ50は、導光部材12の上面16に設けられていてもよいし、目状ディスプレイ10の奥側(例えば、下面14又は表示画面32)に設けられてもよい。圧力の負荷を検知する方式のタッチセンサ50を目状ディスプレイ10の奥側に設ける場合、導光部材12の上面16がオペレータの指等の操作部材(非導電性の操作部材を含む。)で押圧されると、その押圧による圧力が導光部材12を介してタッチセンサ50に伝達され、制御部150は、この圧力を検知することにより、オペレータによる操作入力内容を認識することができる。 As a touch operation detection method in the touch sensor 50, a method other than the capacitance type, for example, a resistance film method or the like can be used. When a touch sensor 50 of a method of detecting a pressure load (pressure sensitive type) such as a resistive film method is used, the touch sensor 50 may be provided on the upper surface 16 of the light guide member 12, or the eye-shaped display 10 It may be provided on the back side (for example, the lower surface 14 or the display screen 32). When the touch sensor 50 of the type that detects the pressure load is provided on the back side of the eye-shaped display 10, the upper surface 16 of the light guide member 12 is an operating member (including a non-conductive operating member) such as an operator's finger. When pressed, the pressure due to the pressing is transmitted to the touch sensor 50 via the light guide member 12, and the control unit 150 can recognize the operation input content by the operator by detecting this pressure.

なお、上面16(第2の面)側における操作部材の動作を検知するセンサは、タッチセンサに限定されるものではない。例えば、静電容量型の近接センサを用いることも可能である。静電容量型の近接センサは、近接センサ近傍の検出領域への導電性操作部材の侵入、及びこの検出領域からの導電性操作部材の離脱を検出するものである。静電容量型の近接センサは、導光部材12の上面16の周辺部に設けることが可能である。静電容量型の近接センサは、導光部材12の上面16の表面又は近傍に設けられた電極を備える。この電極は、導光部材12の上面16の周囲を取り囲むように配置される。なお、本実施形態のように上面16が上に凸の形状の場合、上面16の周囲に加えて、上面16の頂点又はその近傍に設けてもよい。静電容量型の近接センサでは、この電極により、導光部材12の上面16の近傍に設定された検出領域に電界を発生させ、この検出領域に導電性操作部材又は誘電体からなる操作部材が侵入することによって生じる電極の静電容量の変化を電気信号に変換して物体の接近を検出する。静電容量型の近接センサにおける検出領域は、導光部材12の上面16からの距離が、一例で1mmから1cmのオーダの領域又は約10cmの領域に設定される。また、静電容量型の近接センサにおける検出領域は、導光部材12のサイズに応じて設定されるようにしてもよく、例えば、導光部材12の直径の10分の1以下の領域とすることも可能である。また、静電容量型の近接センサに設けられたボリューム(可変抵抗器)により電界の強度を調整することで、この検出領域を調整可能にしてもよい。 The sensor that detects the operation of the operating member on the upper surface 16 (second surface) side is not limited to the touch sensor. For example, it is also possible to use a capacitance type proximity sensor. The capacitance type proximity sensor detects the intrusion of the conductive operating member into the detection region near the proximity sensor and the detachment of the conductive operating member from this detection region. The capacitance type proximity sensor can be provided in the peripheral portion of the upper surface 16 of the light guide member 12. The capacitance type proximity sensor includes electrodes provided on or near the surface 16 of the upper surface 16 of the light guide member 12. The electrodes are arranged so as to surround the upper surface 16 of the light guide member 12. When the upper surface 16 has an upwardly convex shape as in the present embodiment, it may be provided at or near the apex of the upper surface 16 in addition to the periphery of the upper surface 16. In the capacitance type proximity sensor, an electric field is generated in a detection region set near the upper surface 16 of the light guide member 12 by this electrode, and an operation member made of a conductive operation member or a dielectric is generated in this detection area. The change in the capacitance of the electrode caused by the intrusion is converted into an electric signal to detect the approach of an object. The detection region of the capacitance type proximity sensor is set so that the distance from the upper surface 16 of the light guide member 12 is, for example, an order region of 1 mm to 1 cm or a region of about 10 cm. Further, the detection region in the capacitance type proximity sensor may be set according to the size of the light guide member 12, for example, a region of 1/10 or less of the diameter of the light guide member 12. It is also possible. Further, this detection region may be adjustable by adjusting the strength of the electric field with a volume (variable resistor) provided in the capacitance type proximity sensor.

図7は、本発明の一実施形態に係る目状ディスプレイを備えたロボットの制御方法を示すフローチャートである。 FIG. 7 is a flowchart showing a control method of a robot provided with an eye-shaped display according to an embodiment of the present invention.

まず、ロボット100の電源が投入されて起動すると、制御部150は、動作制御プログラムに従って、動作制御部162に制御信号を出力し、ロボット100の各部に起動時の初期動作(例えば、腕部110を振り上げる、脚部116により前後に動く、音声を発する、各部を合わせて動作して挨拶をする等)を実行させる。表示制御プログラムに従って画像メモリ158から目の画像(例えば、閉じていた目を開く画像等)を読み出して、I/F164及びI/F38を介して画像表示装置30に出力する。ディスプレイ制御部34は、I/F38を介して入力された目の画像を表示画面32に出力する。これにより、表示画面32から出力された画像を示す光が導光部材12の筒状部18を通って上面16に伝播し、オペレータは、導光部材12の上面16の画像を視認することが可能になる(ステップS10)。そして、制御部150は、表示制御プログラムに従って、時間の経過に応じて、又はロボット100の動作と連携して、画像表示装置30に目の画像を出力して表示させる。これにより、ロボット100の動作全体を通じて、目状ディスプレイ10の表示内容と連携した豊かな感情表現を実現することができる。 First, when the power of the robot 100 is turned on and started, the control unit 150 outputs a control signal to the operation control unit 162 according to the operation control program, and the initial operation at the time of activation (for example, the arm 110) is output to each part of the robot 100. Swing up, move back and forth by the leg 116, emit a voice, move each part together to greet, etc.). According to the display control program, the image of the eyes (for example, the image of opening the closed eyes) is read from the image memory 158 and output to the image display device 30 via the I / F 164 and the I / F 38. The display control unit 34 outputs the image of the eyes input via the I / F 38 to the display screen 32. As a result, the light indicating the image output from the display screen 32 propagates to the upper surface 16 through the tubular portion 18 of the light guide member 12, and the operator can visually recognize the image of the upper surface 16 of the light guide member 12. It becomes possible (step S10). Then, the control unit 150 outputs and displays the image of the eyes on the image display device 30 according to the display control program according to the passage of time or in cooperation with the operation of the robot 100. As a result, it is possible to realize a rich emotional expression linked with the display contents of the eye-shaped display 10 throughout the operation of the robot 100.

次に、導光部材12の上面16のタッチセンサ50により、オペレータのタッチ操作が検知されると(ステップS12のYes)、ディスプレイ制御部34は、このタッチ操作の内容(例えば、タッチ回数、タッチの位置、強度等)の情報を示す信号制御部150に出力する。制御部150は、このタッチ操作の内容を示す信号を受け付けると、表示制御プログラムに従って、このタッチ操作の内容に応じた画像又は情報を画像メモリ158から読み出し、又は、ネットワークを介して、このタッチ操作に応じた画像又は情報を取得して、画像表示装置30に出力し、表示画面32に表示させる(ステップS14)。 Next, when the touch operation of the operator is detected by the touch sensor 50 on the upper surface 16 of the light guide member 12 (Yes in step S12), the display control unit 34 determines the content of the touch operation (for example, the number of touches, the touch). (Position, strength, etc.) information is output to the signal control unit 150. When the control unit 150 receives the signal indicating the content of the touch operation, the control unit 150 reads the image or information corresponding to the content of the touch operation from the image memory 158 according to the display control program, or reads the touch operation via the network. The image or information corresponding to the above is acquired, output to the image display device 30, and displayed on the display screen 32 (step S14).

そして、操作部152、タッチセンサ50又は外部からの信号入力により、表示の終了指示(例えば、電源オフの指示)が検知されると(ステップS16のYes)、処理が終了する。 Then, when a display end instruction (for example, a power off instruction) is detected by the operation unit 152, the touch sensor 50, or a signal input from the outside (Yes in step S16), the process ends.

[目状ディスプレイの導光部材の製造方法]
次に、本発明の一実施形態に係る目状ディスプレイの導光部材の製造方法について説明する。
[Manufacturing method of light guide member for eye-shaped display]
Next, a method of manufacturing a light guide member for an eye-shaped display according to an embodiment of the present invention will be described.

図8Aから図8Cは、本発明の一実施形態に係る目状ディスプレイの導光部材の製造工程を示す断面図であり、図9は、この製造工程を示すフローチャートである。 8A to 8C are cross-sectional views showing a manufacturing process of a light guide member for an eye-shaped display according to an embodiment of the present invention, and FIG. 9 is a flowchart showing this manufacturing process.

まず、導光部材12の材料12Aの切り出し、チャンバ(不図示)内への載置(図8A)等の準備工程が行われる(ステップS30)。 First, preparatory steps such as cutting out the material 12A of the light guide member 12 and placing it in a chamber (not shown) (FIG. 8A) are performed (step S30).

次に、レーザ光により、材料12Aに筒状部18が形成される(ステップS32)。図8Bは、レーザ加工装置による筒状部18の形成工程の概要を示している。 Next, the tubular portion 18 is formed on the material 12A by the laser beam (step S32). FIG. 8B shows an outline of the process of forming the tubular portion 18 by the laser processing apparatus.

本実施形態に係るレーザ加工装置は、制御装置200、操作部202、メモリ204、レーザ光出力装置206及び送気装置208を備えている。 The laser processing device according to the present embodiment includes a control device 200, an operation unit 202, a memory 204, a laser light output device 206, and an air supply device 208.

制御装置200は、レーザ加工装置の各部を制御する演算装置であり、操作部202からの操作入力に応じて、レーザ光の出力制御、レーザ光出力装置206によるレーザ照射位置の位置制御及び送気装置208の送気口の位置制御を行う。 The control device 200 is an arithmetic device that controls each part of the laser processing device, and controls the output of laser light, controls the position of the laser irradiation position by the laser light output device 206, and sends air according to the operation input from the operation unit 202. The position of the air supply port of the device 208 is controlled.

操作部202は、レーザ加工装置のオペレータからの操作入力を受け付けるための装置であり、例えば、各種のパラメータ(例えば、樹脂材料12Aの種類、大きさ、筒状部18のサイズ及び位置、導光部材12の完成形状等)の設定を受け付ける。 The operation unit 202 is a device for receiving an operation input from an operator of the laser processing apparatus, and is, for example, various parameters (for example, the type and size of the resin material 12A, the size and position of the tubular portion 18, and the light guide. Accepts the setting of the completed shape of the member 12).

メモリ204は、制御装置200の演算のためのプログラムが記憶される記憶装置と、操作部202からの操作内容を一時記憶するためのバッファメモリとを含んでいる。 The memory 204 includes a storage device for storing a program for calculation of the control device 200, and a buffer memory for temporarily storing the operation contents from the operation unit 202.

制御装置200は、樹脂材料12Aの種類及び大きさ、筒状部18のサイズの設定に応じて、例えば、筒状部18の形状、配置等の演算を行い、レーザ光出力装置206及び送気装置の208の制御を行う。 The control device 200 calculates, for example, the shape and arrangement of the tubular portion 18 according to the type and size of the resin material 12A and the size of the tubular portion 18, and performs the laser beam output device 206 and the air supply. It controls 208 of the device.

レーザ光出力装置206は、制御装置200からの制御信号に従ってレーザ光LB(例えば、炭酸ガスレーザ(波長10.6μm))を出力し、材料12Aに筒状部18を形成する。 The laser beam output device 206 outputs a laser beam LB (for example, a carbon dioxide gas laser (wavelength 10.6 μm)) according to a control signal from the control device 200, and forms a tubular portion 18 on the material 12A.

送気装置208は、レーザ光の照射位置及びその周囲にガスB1(例えば、窒素(N)、アルゴン(Ar)等)を吹き付けることにより、レーザ光によって溶融された材料12Aを除去する。 Air supply unit 208, gas B1 (e.g., nitrogen (N 2), argon (Ar) or the like) at the irradiation position and around the laser beam by blowing, to remove material 12A which has been melted by the laser beam.

レーザ光出力装置206を移動させながら、材料12Aにレーザ光を照射することにより、材料12Aに複数の筒状部18が形成される。 By irradiating the material 12A with a laser beam while moving the laser light output device 206, a plurality of tubular portions 18 are formed on the material 12A.

次に、筒状部18の内面に反射面が形成される(ステップS34)。この反射面は、例えば、筒状部18が形成された材料を、例えば、反射面の材料(例えば、フッ素系樹脂等)の中に浸潤させることによって作成される。 Next, a reflective surface is formed on the inner surface of the tubular portion 18 (step S34). This reflective surface is created, for example, by infiltrating the material on which the tubular portion 18 is formed into, for example, the material of the reflective surface (for example, a fluororesin or the like).

次に、筒状部18が形成された材料12Aに対して、バリ取り、研削等の加工が施されて、材料12Aが所定の形状に成形される。ステップS36では、例えば、不図示の研削手段(例えば、ブレード)により、材料12Aが研削加工される。 Next, the material 12A on which the tubular portion 18 is formed is subjected to processing such as deburring and grinding to form the material 12A into a predetermined shape. In step S36, the material 12A is ground by, for example, a grinding means (for example, a blade) (not shown).

そして、上記の光散乱部材、光拡散部材、反射防止膜等の形成、タッチセンサの取付等の処理が行われると。図8Cに示すように、導光部材12が完成する(ステップS38)。その後、画像表示装置30が取り付けられて、配線の取付等がなされることにより、目状ディスプレイ10が完成する。 Then, when the above-mentioned light scattering member, light diffusion member, antireflection film and the like are formed, and the touch sensor is attached. As shown in FIG. 8C, the light guide member 12 is completed (step S38). After that, the image display device 30 is attached, and the wiring is attached to complete the eye-shaped display 10.

本実施形態によれば、単位体積当たりの質量が比較的小さい材料に対してレーザ光等を用いることにより、ロボット100の動作への影響が少ない軽量な導光部材12を容易に作成することが可能になる。 According to the present embodiment, by using a laser beam or the like for a material having a relatively small mass per unit volume, it is possible to easily create a lightweight light guide member 12 having little influence on the operation of the robot 100. It will be possible.

なお、本実施形態では、筒状部18の内面に反射面を形成した後に、例えば、可視光を透過することが可能な材料(例えば、気体(例えば、N等)、液体、ゲル等)を充填する工程を設けてもよい。また、導光部材12の上面16は、黒色に塗装するようにしてもよい。 In the present embodiment, after forming the reflection surface on the inner surface of the cylindrical portion 18, for example, capable of transmitting visible light material (e.g., a gas (eg, N 2, etc.), liquids, gels, and the like) May be provided with a step of filling. Further, the upper surface 16 of the light guide member 12 may be painted black.

また、導光部材12の単位面積当たりの質量(密度)は、一例で1.5g/cm以下であり、好ましくは1.0g/cm以下、更に好ましくは0.90g/cm以下である。導光部材12の密度を上記の範囲内にすることにより、目状ディスプレイ10の位置ずれ及び脱落をより確実に防止することが可能になる。ガラスファイバの密度は一例で2.2〜2.5g/cmであるのに対し、樹脂(合成樹脂(いわゆるプラスチック)を含む。)の密度は一例で0.90〜1.5g/cmである。導光部材12における開口率(単位面積当たりの開口部の占める割合)を0.50とした場合、本実施形態に係る樹脂製の導光部材12の密度は、0.45〜0.75g/cmとなり、上記の密度の範囲に収まる。このような導光部材12を用いることにより、ロボット100の動作中に目状ディスプレイ10が脱落することを防止することができる。 The mass (density) per unit area of the light guide member 12 is, for example, 1.5 g / cm 3 or less, preferably 1.0 g / cm 3 or less, and more preferably 0.90 g / cm 3 or less. is there. By keeping the density of the light guide member 12 within the above range, it is possible to more reliably prevent the eye-shaped display 10 from being displaced and falling off. The density of glass fiber is 2.2 to 2.5 g / cm 3 in one example, while the density of resin (including synthetic resin (so-called plastic)) is 0.99 to 1.5 g / cm 3 in one example. Is. When the aperture ratio (ratio of openings per unit area) of the light guide member 12 is 0.50, the density of the resin light guide member 12 according to the present embodiment is 0.45 to 0.75 g /. It becomes cm 3 and falls within the above density range. By using such a light guide member 12, it is possible to prevent the eye-shaped display 10 from falling off during the operation of the robot 100.

[ストレステスト]
次に、本実施形態に係る導光部材の製造方法により作成した導光部材に対するストレステスト(落下試験)について説明する。図10Aは、落下試験用の導光部材を示す平面図(上部)及び側面図(下部)であり、図10Bは、落下試験用の導光部材の筒状部を拡大して示す平面図である。
[Stress test]
Next, a stress test (drop test) on the light guide member produced by the method for manufacturing the light guide member according to the present embodiment will be described. 10A is a plan view (upper part) and a side view (lower part) showing a light guide member for a drop test, and FIG. 10B is an enlarged plan view showing a tubular portion of the light guide member for a drop test. is there.

図10Aに示す導光部材12は、合成樹脂(いわゆるプラスチック)製であり、直径R12=50mm、厚さ3.0mmの円柱形状である。導光部材12の中心部の直径RA=40mmのエリアA12に、直径R18=0.60mmの円柱状の貫通穴(筒状部18)を作成した。筒状部18は、炭酸ガスレーザによって、横方向の間隔P1及び縦方向の間隔P2をいずれも1.0mmとして作成した。 The light guide member 12 shown in FIG. 10A is made of synthetic resin (so-called plastic) and has a cylindrical shape with a diameter R12 = 50 mm and a thickness of 3.0 mm. A cylindrical through hole (cylindrical portion 18) having a diameter of R18 = 0.60 mm was created in an area A12 having a diameter of RA = 40 mm at the center of the light guide member 12. The tubular portion 18 was created by a carbon dioxide gas laser with a horizontal spacing P1 and a vertical spacing P2 of 1.0 mm.

次に、厚さ3.0mmで、中央に直径50mmの円形の穴404が形成された板400を用意し、導光部材12をこの穴404に嵌めた。板400の両面に、穴404の円周上の3箇所に、つめ402を取り付けて、導光部材12をこのつめ402によって固定した。つめ402の大きさ(穴404側に突き出した部分の長さ)P402は1.0mmであった。 Next, a plate 400 having a thickness of 3.0 mm and a circular hole 404 having a diameter of 50 mm formed in the center was prepared, and the light guide member 12 was fitted into the hole 404. Claws 402 were attached to both sides of the plate 400 at three locations on the circumference of the hole 404, and the light guide member 12 was fixed by the claws 402. The size of the claw 402 (the length of the portion protruding toward the hole 404) P402 was 1.0 mm.

比較例として、本実施形態に係る導光部材12と直径及び厚さが等しいガラスファイバ製の導光部材(直径50mm、厚さ3.0mm)を作成し、本実施形態に係る導光部材12と同様に、板400につめ402を用いて固定した。 As a comparative example, a light guide member (diameter 50 mm, thickness 3.0 mm) made of glass fiber having the same diameter and thickness as the light guide member 12 according to the present embodiment is created, and the light guide member 12 according to the present embodiment is created. In the same manner as above, the plate 400 was fixed to the plate 400 using the claws 402.

本実施形態に係る導光部材12を嵌め込んだ板400と、ガラスファイバ製の導光部材(比較例)を嵌め込んだ板400に対して落下試験を行った。この落下試験では、本実施形態に係る導光部材12を嵌め込んだ板400と、ガラスファイバ製の導光部材(比較例)を嵌め込んだ板400を、それぞれ1.0mの高さから10回落下(自由落下)させた。この落下試験は、IEC 60068-2-31:2008(IEC:International Electrotechnical Commission)に準拠して行った。 A drop test was performed on the plate 400 into which the light guide member 12 according to the present embodiment was fitted and the plate 400 into which the light guide member made of glass fiber (comparative example) was fitted. In this drop test, the plate 400 into which the light guide member 12 according to the present embodiment is fitted and the plate 400 into which the light guide member made of glass fiber (comparative example) is fitted are 10 from a height of 1.0 m, respectively. It was dropped (free fall). This drop test was conducted in accordance with IEC 60068-2-31: 2008 (IEC: International Electrotechnical Commission).

この結果、ガラスファイバ製の導光部材は板400から脱落したが、本実施形態に係る導光部材12は板400に固定されたままであった。なお、本実施形態に係る導光部材12の密度は、0.85g/cmであり、ガラスファイバ製の導光部材の密度は2.2g/cmであった。 As a result, the light guide member made of glass fiber fell off from the plate 400, but the light guide member 12 according to the present embodiment remained fixed to the plate 400. The density of the light guide member 12 according to the present embodiment was 0.85 g / cm 3 , and the density of the light guide member made of glass fiber was 2.2 g / cm 3 .

このように、目状ディスプレイ10において、密度の小さい(0.90g/cm以下)材料で作成された導光部材12を用いることにより、ロボット100の動作中に目状ディスプレイ10が脱落することを防止することができる。 In this way, by using the light guide member 12 made of a material having a low density (0.90 g / cm 3 or less) in the eye-shaped display 10, the eye-shaped display 10 falls off during the operation of the robot 100. Can be prevented.

10 目状ディスプレイ
12 導光部材
12A 導光部材の材料(樹脂材料)
14 下面(第1の面)
16 上面(第2の面)
18 筒状部
18A 第1の開口部
18B 第2の開口部
30 画像表示装置
32 表示画面
34 ディスプレイ制御部
36 ディスプレイ記憶部
38 通信インターフェース(I/F)
50 タッチセンサ
100 ロボット
102 頭部
102A 凹部
104 アンテナ
106 口部
108 胴部
110 腕部
110A 関節部
110B 手部
112 腕部駆動軸
116 脚部
118 脚部駆動軸
150 制御部
152 操作部
154 メモリ
156 電源回路
158 画像メモリ
160 出力制御部
162 動作制御部
164 通信インターフェース(I/F)
166 音声入出力部166
200 制御装置
202 操作部
204 メモリ
206 レーザ光出力装置
208 送気装置
300 外部機器
AX1 中心軸
B1 ガス
L1 光
LB レーザ光
NW ネットワーク
S10〜S16 目状ディスプレイにおける表示制御工程
S30〜S38 導光部材の製造工程
400 板
402 つめ
404 穴
10-eye display 12 Light guide member 12A Material of light guide member (resin material)
14 Bottom surface (first surface)
16 Top surface (second surface)
18 Cylindrical part 18A First opening 18B Second opening 30 Image display device 32 Display screen 34 Display control unit 36 Display storage unit 38 Communication interface (I / F)
50 Touch sensor 100 Robot 102 Head 102A Recessed 104 Antenna 106 Mouth 108 Body 110 Arm 110A Joint 110B Hand 112 Arm drive shaft 116 Leg 118 Leg drive shaft 150 Control 152 Operation 154 Memory 156 Power supply Circuit 158 Image memory 160 Output control unit 162 Operation control unit 164 Communication interface (I / F)
166 Audio input / output unit 166
200 Control device 202 Operation unit 204 Memory 206 Laser light output device 208 Air supply device 300 External device AX1 Central axis B1 Gas L1 Light LB Laser light NW network S10 to S16 Display control process for eye display S30 to S38 Manufacture of light guide member Process 400 Plate 402 Claw 404 Hole

Claims (11)

画像を示す光を出力する画面と、少なくとも目の画像を前記画面に出力させる表示制御手段とを有する画像表示装置と、
導光部材とを備えるディスプレイであって、
前記導光部材が、
前記画面に対向して配置された第1の面と、
前記第1の面に対向して配置された第2の面と、
前記第1の面の第1の開口部から前記第2の面の第2の開口部に延びる中空の筒状部であって、前記画面から出力されて前記第1の開口部に入射した光を反射して前記第2の開口部から出射させる反射面が内面に形成された筒状部が複数形成されており、前記画面から出力された前記画像を示す光を前記第2の面を介して出力させる部材本体とを備え、
前記筒状部の第2の面において、前記第2の開口部が不均一な間隔で配置され、かつ、前記筒状部における前記第1の開口部と前記第2の開口部との間の距離の値が大きい領域ほど、前記筒状部の第2の面において、前記筒状部の単位面積当たりの数が多く配置される、
ディスプレイ。
An image display device having a screen that outputs light indicating an image and a display control means that outputs at least an image of the eyes to the screen.
A display provided with a light guide member
The light guide member
A first surface arranged to face the screen and
A second surface arranged to face the first surface and
A hollow tubular portion extending from the first opening of the first surface to the second opening of the second surface, and the light output from the screen and incident on the first opening. A plurality of tubular portions are formed on the inner surface of which is a reflective surface that reflects and emits light from the second opening, and light indicating the image output from the screen is transmitted through the second surface. Equipped with a member body to output
On the second surface of the tubular portion, the second openings are arranged at non-uniform intervals , and between the first opening and the second opening in the tubular portion. as the distance area value is large, the second side of the tubular portion, the number per unit area of the tubular portion is Ru is often arranged,
display.
前記第1の面が平面であり、
前記第2の面の少なくとも一部が非平面である、請求項1記載のディスプレイ。
The first surface is a flat surface,
Wherein at least a portion of the second surface is non-planar, claim 1 Symbol placement display.
前記第2の面が、曲面、多角面及び階段状の面のうちの少なくとも1つの面形状の部分を含む請求項1又は2記載のディスプレイ。 The display according to claim 1 or 2, wherein the second surface includes at least one surface-shaped portion of a curved surface, a polygonal surface, and a stepped surface. 前記第1の面が、平面、多角面、円柱面及び円錐面のうちの少なくとも1つである、請求項1からのいずれか1項記載のディスプレイ。 The display according to any one of claims 1 to 3 , wherein the first surface is at least one of a flat surface, a polygonal surface, a cylindrical surface, and a conical surface. 前記第1の開口部及び第2の開口部の少なくとも一方に配置され、光を拡散する光拡散部材を更に備える請求項1からのいずれか1項記載のディスプレイ。 The display according to any one of claims 1 to 4 , further comprising a light diffusing member arranged in at least one of the first opening and the second opening and diffusing light. 前記第2の面上に配置され、前記第2の面から出射する光を散乱する光散乱部材を更に備える請求項1からのいずれか1項記載のディスプレイ。 The display according to any one of claims 1 to 4 , further comprising a light scattering member arranged on the second surface and scattering light emitted from the second surface. 前記表示制御手段は、画像及び文字のうち少なくとも一方を含む情報を前記画面に表示させる、請求項1からのいずれか1項記載のディスプレイ。 The display according to any one of claims 1 to 6 , wherein the display control means displays information including at least one of an image and characters on the screen. 前記第2の面側における操作部材の動作を検知するセンサを更に備え、
前記表示制御手段は、前記センサによって検出された前記操作部材の動作に応じて前記画面に出力する画像を変更する、請求項1からのいずれか1項記載のディスプレイ。
A sensor for detecting the operation of the operating member on the second surface side is further provided.
The display according to any one of claims 1 to 7 , wherein the display control means changes an image to be output to the screen according to the operation of the operating member detected by the sensor.
顔部と、
前記顔部の前面の取付位置に取り付けられた請求項1からのいずれか1項記載のディスプレイと、
前記画像表示装置によって出力される画像を制御する制御手段と、
を備えるロボット。
With the face
The display according to any one of claims 1 to 8 , which is attached to the attachment position on the front surface of the face portion.
A control means for controlling an image output by the image display device, and
A robot equipped with.
前記取付位置には、前記ディスプレイを取り付けるための凹部が設けられており、
前記ディスプレイは、前記凹部に取り付けられる、請求項記載のロボット。
The mounting position is provided with a recess for mounting the display.
The robot according to claim 9 , wherein the display is attached to the recess.
前記顔部を含む頭部が取り付けられた首部と、腕部、胴部及び脚部にそれぞれ設けられた可動部のうちの少なくとも1つを動作させる動作手段を更に備え、
前記制御手段は、前記ディスプレイに表示させる画像の制御と連携して、前記動作手段による各可動部の動作を制御する、請求項9又は10記載のロボット。
Further provided with an operating means for operating the neck portion to which the head including the face portion is attached and at least one of the movable portions provided on the arms, torso and legs, respectively.
The robot according to claim 9 or 10 , wherein the control means controls the operation of each movable portion by the operation means in cooperation with the control of an image displayed on the display.
JP2017015820A 2017-01-31 2017-01-31 Display and robot Active JP6754704B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017015820A JP6754704B2 (en) 2017-01-31 2017-01-31 Display and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017015820A JP6754704B2 (en) 2017-01-31 2017-01-31 Display and robot

Publications (2)

Publication Number Publication Date
JP2018124399A JP2018124399A (en) 2018-08-09
JP6754704B2 true JP6754704B2 (en) 2020-09-16

Family

ID=63109599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017015820A Active JP6754704B2 (en) 2017-01-31 2017-01-31 Display and robot

Country Status (1)

Country Link
JP (1) JP6754704B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109940588B (en) * 2019-03-26 2020-09-08 胚豆智能科技(武汉)有限公司 Enterprise is with interactive intelligent eye structure of robot that meets an appointment
JP6733065B1 (en) * 2020-01-21 2020-07-29 株式会社トミーテック Model with headlight and its light guide mechanism
US20240261979A1 (en) * 2021-06-10 2024-08-08 Sony Group Corporation Nursing care robot

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60203915A (en) * 1984-03-28 1985-10-15 Matsushita Electric Ind Co Ltd Large-sized liquid crystal display device
JP3277500B2 (en) * 1999-05-10 2002-04-22 ソニー株式会社 Robot device
US6538813B1 (en) * 2000-09-19 2003-03-25 Honeywell International Inc. Display screen with metallized tapered waveguides
JP2002303804A (en) * 2001-04-06 2002-10-18 Sony Corp Optical enlargement member and portable terminal equipment
JP2003015559A (en) * 2001-07-03 2003-01-17 Sega Toys:Kk Display device and toy
JP2003205489A (en) * 2002-01-08 2003-07-22 Matsushita Electric Ind Co Ltd Artificial eye and robot using it
KR20040043411A (en) * 2002-11-18 2004-05-24 삼성전자주식회사 Optical waveguide sheet using display device and method for fabricating thereof and display device
EP2187259B1 (en) * 2007-09-14 2014-05-14 Panasonic Corporation Projector
JP4972218B1 (en) * 2011-08-12 2012-07-11 株式会社バンダイ Action body toy
JP6132754B2 (en) * 2013-12-06 2017-05-24 株式会社ソニー・インタラクティブエンタテインメント Information processing system, output device, and output method

Also Published As

Publication number Publication date
JP2018124399A (en) 2018-08-09

Similar Documents

Publication Publication Date Title
US10514780B2 (en) Input device
JP6754704B2 (en) Display and robot
CN106104426B (en) Systems, methods, and computer-readable media for force-based object manipulation and haptic detection
JP5308531B2 (en) Movable trackpad with additional functionality
KR102104463B1 (en) Systems and methods for multi-pressure interaction on touch-sensitive surfaces
KR102051180B1 (en) Systems and methods for a texture engine
EP1966676B1 (en) Illuminated touchpad
CN103425334B (en) Control the method and the electronic installation using this method of the display of electronic installation
US20160041717A1 (en) Game controller on mobile touch-enabled devices
TW201905672A (en) Finger-mounted device with sensors and haptics
JP2019114270A (en) System and method for performing haptic conversion
EP3548989A1 (en) Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment
KR20220115981A (en) Posture-based virtual space configuration
US10489984B2 (en) Virtual reality headset
US20110241832A1 (en) Computer navigation
CN113760093A (en) Method for object motion tracking and mixed reality system
KR20190062249A (en) Systems and methods for providing haptic feedback according to tilt-based inputs
US10739823B2 (en) Motion control assembly with battery pack
US20070013651A1 (en) Hand-held device with indication of ergonomic risk condition
JP2010217938A (en) Data communication system
WO2009117503A1 (en) 3-axis trackball
US20240192811A1 (en) Systems With Deformable Controllers
EP3507678B1 (en) 3d haptics for interactive computer systems
WO2024064929A1 (en) Input device
WO2011045786A2 (en) Wearable device for generating input for computerized systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250