JP2017032741A - Display device, display control method and program for the same - Google Patents

Display device, display control method and program for the same Download PDF

Info

Publication number
JP2017032741A
JP2017032741A JP2015151708A JP2015151708A JP2017032741A JP 2017032741 A JP2017032741 A JP 2017032741A JP 2015151708 A JP2015151708 A JP 2015151708A JP 2015151708 A JP2015151708 A JP 2015151708A JP 2017032741 A JP2017032741 A JP 2017032741A
Authority
JP
Japan
Prior art keywords
display
operator
unit
content
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015151708A
Other languages
Japanese (ja)
Other versions
JP6441763B2 (en
Inventor
佐々木 憲一
Kenichi Sasaki
憲一 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2015151708A priority Critical patent/JP6441763B2/en
Publication of JP2017032741A publication Critical patent/JP2017032741A/en
Application granted granted Critical
Publication of JP6441763B2 publication Critical patent/JP6441763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display device that makes displays of contents easily viewable to operators, and can provide much more information thereto.SOLUTION: A display device comprises: a display unit that is plurally provided at a different angle on a surface of an outer side, and displays respective contents; an imaging unit that photographs surroundings at 360 degrees; an operator detection unit that implements image processing of images photographed by the imaging unit, and determines a plurality of adjacent display units displaying the contents on the basis of a result of detecting a position of a face of an operator and orientation thereof; and a content control unit that corrects the contents to be displayed on respective display units on the basis of the position of the face of the operator and orientation thereof, and an angle of the display unit having the display of the content determined by the operator detection unit, and causes the display unit to display the corrected contents, respectively.SELECTED DRAWING: Figure 1

Description

本発明は、コンテンツを表示する表示装置、表示制御方法、及びそのためのプログラムに関する。   The present invention relates to a display device that displays content, a display control method, and a program therefor.

コンテンツを表示する表示装置において、表示されているコンテンツを見ている人に応じてコンテンツの表示を制御する装置が知られている。この表示装置は、表示装置にカメラを備え、カメラで撮影した画像の中に人の顔があることを認識した場合にコンテンツを制御する。   As a display device for displaying content, a device that controls display of content according to a person who is viewing the displayed content is known. This display device includes a camera in the display device, and controls content when it is recognized that a human face is present in an image captured by the camera.

表示装置の一例が特許文献1に記載されている。特許文献1に記載された液晶表示装置は、カメラで撮影した画像を処理し、コンテンツを見ている人の顔の位置及び顔の向きを検出し、液晶表示パネルのどのコンテンツが注目されているかを判別する。そして、液晶表示装置は、コンテンツが注目されていると判別した場合、液晶表示パネルの当該コンテンツ以外のコンテンツの輝度を下げる。   An example of a display device is described in Patent Document 1. The liquid crystal display device described in Patent Document 1 processes an image taken by a camera, detects the position and orientation of the face of a person watching the content, and which content on the liquid crystal display panel is attracting attention Is determined. When the liquid crystal display device determines that the content is attracting attention, the liquid crystal display device lowers the luminance of the content other than the content on the liquid crystal display panel.

特開2009−237210号公報JP 2009-237210 A

しかしながら、上述した特許文献1に記載された技術は、利用者が表示装置を正面から見ていない場合、利用者にとっては表示されるコンテンツが斜めに見えるため、利用者は見づらく感じる。したがって、特許文献1に記載された技術は、利用者と表示装置との相対的な角度に基づいてコンテンツ自体を視認しやすく制御することはできないという問題点がある。また、上述した特許文献1は、単独の液晶表示装置(テレビジョン受像機)の表示の制御に関する技術であり、複数の液晶表示装置にまたがってコンテンツの表示を制御する技術の開示はない。たとえば腕時計型の表示装置のようなものであれば、表示領域の面積が小さいため、単独の表示領域では表示できる情報量が少ないという問題点がある。   However, in the technique described in Patent Document 1 described above, when the user does not look at the display device from the front, since the displayed content appears oblique to the user, the user feels difficult to see. Therefore, the technique described in Patent Document 1 has a problem that the content itself cannot be easily controlled based on the relative angle between the user and the display device. Patent Document 1 described above is a technique related to display control of a single liquid crystal display device (television receiver), and there is no disclosure of a technique for controlling display of content across a plurality of liquid crystal display devices. For example, a wristwatch-type display device has a problem in that the amount of information that can be displayed is small in a single display region because the area of the display region is small.

本発明の目的の一例は、上述した問題点を解決できるコンテンツを表示する表示装置、表示制御方法およびプログラムを提供することにある。具体的には、本発明の目的の一例は、操作者にコンテンツの表示を視認しやすく、かつより多くの情報量を提供可能な表示装置を提供する。   An object of the present invention is to provide a display device, a display control method, and a program for displaying content that can solve the above-described problems. Specifically, an example of an object of the present invention is to provide a display device that allows an operator to easily view content display and provide a larger amount of information.

本発明の一形態における第1の表示装置は、外側の表面に複数、異なる角度で備えられ、それぞれコンテンツを表示する表示部と、周囲を360度撮影する撮影部と、撮影部が撮影した画像を画像処理し、操作者の顔の位置と向きを検知した結果に基づきコンテンツを表示する複数の隣接した表示部を決定する操作者検知部と、操作者の顔の位置と向きと、操作者検知部がコンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させるコンテンツ制御部とを備える。   A first display device according to an embodiment of the present invention is provided with a plurality of different angles on the outer surface, a display unit that displays content, a shooting unit that captures 360 degrees around the image, and an image captured by the shooting unit. Image processing and an operator detection unit that determines a plurality of adjacent display units for displaying content based on the result of detecting the position and orientation of the operator's face, the position and orientation of the operator's face, and the operator A content control unit that corrects the content to be displayed on each display unit based on the angle of the display unit that has determined the display of the content by the detection unit and displays the content on the display unit.

本発明の一形態における第1の表示制御方法は、コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した表示部を決定し、検知した操作者の顔の位置と向きと、コンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させる。   In a first display control method according to an aspect of the present invention, a plurality of display units for displaying content are provided on the outer surface at different angles, and an image obtained by the imaging unit shooting 360 degrees is image-processed. Detecting the position and orientation of the face, determining a plurality of adjacent display units for displaying the content, and determining the position and orientation of the detected operator's face and the angle of the display unit for determining the display of the content. The content displayed on the display unit is corrected and displayed on the display unit.

本発明の一形態における第1のプログラムは、コンピュータに、コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した表示部を決定し、検知した操作者の顔の位置と向きと、コンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させる処理を実行させる。   According to an embodiment of the present invention, a first program includes, on a computer, a plurality of display units that display content on the outer surface at different angles, and an image captured by the imaging unit 360 degrees is processed by an image processor. Detecting the position and orientation of the user's face, determining a plurality of adjacent display units for displaying the content, and based on the detected position and orientation of the operator's face and the angle of the display unit determining the display of the content, respectively. The content displayed on the display unit is corrected, and a process of displaying the content on the display unit is executed.

本発明によれば、操作者にコンテンツの表示を視認しやすく、かつより多くの情報量を提供可能という効果が得られる。   According to the present invention, it is possible to obtain an effect that it is easy for an operator to visually recognize the display of content and a larger amount of information can be provided.

図1は、本発明の第1の実施の形態における表示装置100の外観構成の一例を示す斜視図である。FIG. 1 is a perspective view showing an example of an external configuration of a display device 100 according to the first embodiment of the present invention. 図2は、別の角度(x軸方向)から見た本発明の第1の実施の形態における表示装置100の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the display device 100 according to the first embodiment of the present invention viewed from another angle (x-axis direction). 図3は、本発明の第1の実施の形態における表示装置100の構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the display device 100 according to the first embodiment of the present invention. 図4は、本発明の第1の実施の形態における表示装置100の各撮影部の撮影領域の一例を示す図である。FIG. 4 is a diagram illustrating an example of an imaging region of each imaging unit of the display device 100 according to the first embodiment of the present invention. 図5は、本発明の第1の実施の形態における表示装置100の各表示部を視認する視認領域の一例を示す図である。FIG. 5 is a diagram illustrating an example of a visual recognition area for visually recognizing each display unit of the display device 100 according to the first embodiment of the present invention. 図6は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像の一例を示す概略図である。FIG. 6 is a schematic diagram illustrating an example of an image obtained by shooting 360 degrees outside the outer periphery of the display device 100 according to the first embodiment of the present invention. 図7は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像に写った操作者の顔の向きを算出する方法の一例を示す概略図である。FIG. 7 is a schematic diagram illustrating an example of a method for calculating the orientation of the operator's face in an image taken 360 degrees outside the outer periphery of the display device 100 according to the first embodiment of the present invention. 図8は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像の別の一例を示す概略図である。FIG. 8 is a schematic diagram illustrating another example of an image obtained by photographing the outside of the outer periphery of the display device 100 according to the first embodiment of the present invention over 360 degrees. 図9は、本発明の第1の実施の形態における表示装置100の第1〜3の表示部101〜103にコンテンツを表示する方法の一例を示す概略図である。FIG. 9 is a schematic diagram illustrating an example of a method for displaying content on the first to third display units 101 to 103 of the display device 100 according to the first embodiment of the present invention. 図10は、本発明の第1の実施の形態における表示装置100の第1〜3の表示部101〜103にコンテンツを表示した場合の操作者からの見え方の一例を示す概略図である。FIG. 10 is a schematic diagram illustrating an example of how the operator sees content when the contents are displayed on the first to third display units 101 to 103 of the display device 100 according to the first embodiment of the present invention. 図11は、本発明の第1の実施の形態における表示装置100の操作者検知部501とコンテンツ制御部502をコンピュータ装置で実現した場合のハードウェア構成例を示す図である。FIG. 11 is a diagram illustrating a hardware configuration example when the operator detection unit 501 and the content control unit 502 of the display device 100 according to the first embodiment of the present invention are realized by a computer device. 図12は、第1の実施の形態における表示装置100でのコンテンツ表示の動作の概要を示すフローチャートである。FIG. 12 is a flowchart illustrating an outline of content display operation on the display device 100 according to the first embodiment. 図13は、本発明の第2の実施形態に係る表示装置110の構成の一例を示す斜視図である。FIG. 13 is a perspective view showing an example of the configuration of the display device 110 according to the second embodiment of the present invention. 図14は、第2の実施の形態における表示装置110での第1〜第4の撮影部201〜204への電源の供給の開始の動作の概要を示すフローチャートである。FIG. 14 is a flowchart illustrating an outline of the operation of starting the supply of power to the first to fourth imaging units 201 to 204 in the display device 110 according to the second embodiment. 図15は、本発明の第3の実施形態に係る表示装置120の構成の一例を示す斜視図である。FIG. 15 is a perspective view showing an example of the configuration of the display device 120 according to the third embodiment of the present invention.

次に、本発明の実施形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
図1は、本発明の第1の実施の形態における表示装置100の外観構成の一例を示す斜視図である。また、図2は、別の角度から見た本発明の第1の実施の形態における表示装置100の外観構成の一例を示す図である。さらに、図3は、本発明の第1の実施の形態における表示装置100の構成の一例を示すブロック図である。図1ないし図3を参照すると、表示装置100は、腕時計型の表示装置であり、第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204と、を備える。また、表示装置100は、図1、図2に図示しない表示装置100内部に操作者検知部501とコンテンツ制御部502と、を備える。
[First Embodiment]
FIG. 1 is a perspective view showing an example of an external configuration of a display device 100 according to the first embodiment of the present invention. Moreover, FIG. 2 is a figure which shows an example of the external appearance structure of the display apparatus 100 in the 1st Embodiment of this invention seen from another angle. FIG. 3 is a block diagram showing an example of the configuration of the display device 100 according to the first embodiment of the present invention. 1 to 3, the display device 100 is a wristwatch type display device, and includes first to eighth display units 101 to 108 and first to fourth imaging units 201 to 204. In addition, the display device 100 includes an operator detection unit 501 and a content control unit 502 inside the display device 100 (not shown in FIGS. 1 and 2).

腕時計型の表示装置である表示装置100の円周面をyz平面と定義し、表示装置100の円周面に垂直な方向、すなわち腕時計型の表示装置に腕を入れる方向をx軸方向として定義する。また、第2の表示部102と第6の表示部106はxz平面内に、第4の表示部104と第8の表示部108はxy平面内に位置するようにy軸方向、z軸方向を定義する。図2は、x軸方向から見た表示装置100の構成の一例を示す図である。   The circumferential surface of the display device 100 which is a wristwatch-type display device is defined as the yz plane, and the direction perpendicular to the circumferential surface of the display device 100, that is, the direction in which the arm is inserted into the wristwatch-type display device is defined as the x-axis direction. To do. Further, the second display unit 102 and the sixth display unit 106 are located in the xz plane, and the fourth display unit 104 and the eighth display unit 108 are located in the xy plane. Define FIG. 2 is a diagram illustrating an example of the configuration of the display device 100 viewed from the x-axis direction.

次に、第1の実施の形態における表示装置100の構成について説明する。   Next, the configuration of the display device 100 according to the first embodiment will be described.

第1〜第8の表示部101〜108は、表示装置100の外周に備えられたディスプレイである。ディスプレイの方式は、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなど、どのような方式でもよい。図2を参照すると、表示装置100には、表示装置100の外周を隙間なく囲むように同じ大きさの8個の表示部が備えられている。このため、第1〜第8の表示部101〜108は、隣接する表示部よりそれぞれ45度傾いた状態で設置されている。   The first to eighth display units 101 to 108 are displays provided on the outer periphery of the display device 100. The display system may be any system such as a liquid crystal display or an organic EL (Electro-Luminescence) display. Referring to FIG. 2, the display device 100 includes eight display units having the same size so as to surround the outer periphery of the display device 100 without a gap. For this reason, the 1st-8th display parts 101-108 are each installed in the state inclined 45 degree | times from the adjacent display part.

第1〜第4の撮影部201〜204は、それぞれ第2の表示部102、第4の表示部104、第6の表示部106、第8の表示部108の側部に備えられ、表示装置100の外周より外側を360度にわたって撮影する。なお、撮影部の数および備えられる場所はこの例に限らず、表示装置100の外周より外側を360度にわたって撮影することが可能であればどのような形態でも構わない。   The first to fourth imaging units 201 to 204 are provided on the side portions of the second display unit 102, the fourth display unit 104, the sixth display unit 106, and the eighth display unit 108, respectively, and display devices. The outside of the outer periphery of 100 is photographed over 360 degrees. Note that the number of shooting units and the locations provided are not limited to this example, and any form may be used as long as the outside of the outer periphery of the display device 100 can be shot 360 degrees.

操作者検知部501は、第1〜第4の撮影部201〜204が撮影した画像を画像処理し、写っているものを解析する。画像処理の結果、人間の顔を検知した場合、操作者の顔とみなし、操作者の顔の位置と向きを判別し、第1〜第8の表示部101〜108の中からコンテンツを表示する複数の隣接した表示部を決定する。   The operator detection unit 501 performs image processing on images captured by the first to fourth imaging units 201 to 204, and analyzes what is captured. When a human face is detected as a result of the image processing, it is regarded as an operator's face, the position and orientation of the operator's face are determined, and content is displayed from the first to eighth display units 101 to 108. A plurality of adjacent display portions are determined.

図4は、本発明の第1の実施の形態における表示装置100の各撮影部の撮影領域の一例を示す図である。なお、最外部の矩形は各領域を定義する上で便宜的に設けたものである。実際は最外部の矩形で区切られた領域よりも外側に各撮影領域は延長される。   FIG. 4 is a diagram illustrating an example of an imaging region of each imaging unit of the display device 100 according to the first embodiment of the present invention. The outermost rectangle is provided for convenience in defining each area. Actually, each imaging area is extended outside the area divided by the outermost rectangle.

図4を参照すると、第1の撮影部201は、第1の撮影領域301と第2の撮影領域302と第3の撮影領域303の範囲を撮影する。同様に、第2の撮影部202は、第3の撮影領域303と第4の撮影領域304と第5の撮影領域305の範囲を撮影する。第3の撮影部203は、第5の撮影領域305と第6の撮影領域306と第7の撮影領域307の範囲を撮影する。第4の撮影部204は、第7の撮影領域307と第8の撮影領域308と第1の撮影領域301の範囲を撮影する。   Referring to FIG. 4, the first imaging unit 201 captures a range of a first imaging area 301, a second imaging area 302, and a third imaging area 303. Similarly, the second imaging unit 202 captures the range of the third imaging area 303, the fourth imaging area 304, and the fifth imaging area 305. The third imaging unit 203 captures a range of the fifth imaging area 305, the sixth imaging area 306, and the seventh imaging area 307. The fourth imaging unit 204 captures the range of the seventh imaging area 307, the eighth imaging area 308, and the first imaging area 301.

操作者検知部501は、第1〜第4の撮影部201〜204が撮影した画像を必要に応じて加工し合成し、表示装置100の外周より外側を360度にわたって撮影した画像を生成する。ここで、第1の撮影領域301と第3の撮影領域303と第5の撮影領域305と第7の撮影領域307は複数の撮影部が重複して撮影する撮影領域である。操作者検知部501は、これらの撮影領域の画像を重複しない様加工し、繋ぎ目のない1つの画像となるよう合成し、画像を生成する。   The operator detection unit 501 processes and synthesizes the images captured by the first to fourth imaging units 201 to 204 as necessary, and generates an image obtained by imaging the outer periphery of the display device 100 from 360 degrees. Here, the first imaging area 301, the third imaging area 303, the fifth imaging area 305, and the seventh imaging area 307 are imaging areas in which a plurality of imaging units perform imaging. The operator detection unit 501 processes the images in these shooting regions so as not to overlap, and synthesizes the images so as to form a single seamless image, thereby generating an image.

図5は、本発明の第1の実施の形態における表示装置100の各表示部を視認する視認領域の一例を示す図である。なお、図4と同様、最外部の矩形は各領域を定義する上で便宜的に設けたものである。実際は最外部の矩形で区切られた領域よりも外側に各視認領域は延長される。   FIG. 5 is a diagram illustrating an example of a visual recognition area for visually recognizing each display unit of the display device 100 according to the first embodiment of the present invention. As in FIG. 4, the outermost rectangle is provided for convenience in defining each region. Actually, each visual recognition area is extended outside the area divided by the outermost rectangle.

図5を参照すると、第1の視認領域401は、第1の表示部101の外側に定義されている。これは第2〜第8の視認領域402〜408と第2〜第8の表示部102〜108に関しても同様である。各視認領域の境界は、yz平面上の表示装置100の円周面の中心点から各表示部間の連結部分を線で結んだ延長線である。   Referring to FIG. 5, the first visual recognition area 401 is defined outside the first display unit 101. The same applies to the second to eighth viewing regions 402 to 408 and the second to eighth display units 102 to 108. The boundary of each visual recognition area is an extension line that connects the connecting portions between the display units with a line from the center point of the circumferential surface of the display device 100 on the yz plane.

操作者検知部501は、表示装置100の外周より外側を360度にわたって撮影した画像を生成した際に、画像上の第1〜第8の視認領域401〜408に相当する領域を判別する。操作者検知部501は、視認領域の境界線を画像内に書き込む処理を行ってもよい。また、操作者検知部501は、画像処理の結果、表示装置100の外周より外側を360度にわたって撮影した画像に人間の顔が写っていると判断した場合、写っている顔が画像上のどの視認領域にあるか判断する。すなわち操作者検知部501は、操作者が第1〜第8の視認領域401〜408のどの領域にいるかを判断する。この時、操作者の顔が画像上の第1〜第8の視認領域401〜408の複数の領域にまたがって写っていた場合、各領域の操作者の顔が写っている部分の面積を比較し、最も大きく写っている領域を操作者のいる領域と判断する。   The operator detection unit 501 determines areas corresponding to the first to eighth viewing areas 401 to 408 on the image when an image obtained by shooting 360 degrees outside the outer periphery of the display device 100 is generated. The operator detection unit 501 may perform a process of writing the boundary line of the viewing area in the image. Further, when the operator detection unit 501 determines that a human face appears in the image taken 360 degrees outside the outer periphery of the display device 100 as a result of the image processing, Determine if it is in the viewing area. That is, the operator detection unit 501 determines which region of the first to eighth viewing regions 401 to 408 the operator is in. At this time, when the operator's face is shown across a plurality of areas of the first to eighth visual recognition areas 401 to 408 on the image, the area of the part where the operator's face in each area is shown is compared. Then, the area that is the largest is determined as the area where the operator is present.

図6は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像の一例を示す概略図である。図6の一例の場合、操作者の顔が第2の視認領域402と第3の視認領域403にまたがって検出されている。ここで、操作者検知部501は、第2の視認領域402の操作者の顔が写っている領域の面積と第3の視認領域403の操作者の顔が写っている領域の面積とを比較する。図5の一例の場合、第2の視認領域402の操作者の顔が写っている領域の面積の方が第3の視認領域403の操作者の顔が写っている領域の面積よりも大きいため、操作者検知部501は、操作者は第2の視認領域402にいると判断する。なお、例えば周囲にいる人が写った場合など、同時に2か所以上の人間の顔を検知した場合、操作者検知部501は、最も検知した領域の面積が広い、すなわち一番大きく写っている顔を操作者の顔と判断する。   FIG. 6 is a schematic diagram illustrating an example of an image obtained by shooting 360 degrees outside the outer periphery of the display device 100 according to the first embodiment of the present invention. In the example of FIG. 6, the operator's face is detected across the second visual recognition area 402 and the third visual recognition area 403. Here, the operator detection unit 501 compares the area of the second visual recognition area 402 in which the operator's face is shown with the area of the third visual recognition area 403 in which the operator's face is shown. To do. In the example of FIG. 5, the area of the second visual recognition area 402 in which the operator's face is shown is larger than the area of the third visual recognition area 403 in which the operator's face is shown. The operator detection unit 501 determines that the operator is in the second visual recognition area 402. In addition, when two or more human faces are detected at the same time, for example, when a person in the vicinity is captured, the operator detection unit 501 has the largest area of the detected area, that is, the largest image. The face is determined as the operator's face.

また、操作者検知部501は、写っている操作者の顔の画像を解析し、目または眼鏡と鼻の位置を検出する。操作者検知部501は、検出した目または眼鏡と鼻の位置に基づき、操作者の顔の向きを判断する。判断する方法の一例を説明する。   In addition, the operator detection unit 501 analyzes the image of the operator's face in the image and detects the positions of the eyes or glasses and nose. The operator detection unit 501 determines the orientation of the operator's face based on the detected positions of eyes or glasses and nose. An example of the determination method will be described.

操作者検知部501は、検出結果の両方の目または眼鏡の位置を線で結び、その線と直交し鼻の位置を通過する直線を生成する。その直線の傾きの算出結果に基づき、操作者検知部501は、操作者の顔の向きを判別する。   The operator detection unit 501 connects the positions of both eyes or glasses in the detection result with a line, and generates a straight line that is orthogonal to the line and passes through the position of the nose. Based on the calculation result of the inclination of the straight line, the operator detection unit 501 determines the orientation of the operator's face.

図7は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像に写った操作者の顔の向きを算出する方法の一例を示す概略図である。図7の一例の場合、操作者検知部501は、両方の目または眼鏡の位置を線で結び、その線と直交し鼻の位置を通過する直線の傾きθを、tanθ=b/aとして求める。この時、aは画像の水平方向、bは画像の垂直方向の移動量である。   FIG. 7 is a schematic diagram illustrating an example of a method for calculating the orientation of the operator's face in an image taken 360 degrees outside the outer periphery of the display device 100 according to the first embodiment of the present invention. In the example of FIG. 7, the operator detection unit 501 connects the positions of both eyes or glasses with a line, and obtains the inclination θ of a straight line perpendicular to the line and passing through the position of the nose as tan θ = b / a. . At this time, a is the horizontal movement amount of the image, and b is the vertical movement amount of the image.

また、操作者検知部501は、検出結果の目または眼鏡と鼻の位置に基づき、操作者が視認できる隣接した表示部を特定する。図6の一例の場合、操作者検知部501は、操作者が表示装置100を見たときに第2の表示部102と、第2の表示部102の左隣に第1の表示部101が、右隣に第3の表示部103が視認できると判断する。   In addition, the operator detection unit 501 specifies adjacent display units that can be visually recognized by the operator based on the detection result of the eye or the position of the glasses and the nose. In the example of FIG. 6, the operator detection unit 501 includes the second display unit 102 when the operator looks at the display device 100, and the first display unit 101 on the left side of the second display unit 102. It is determined that the third display unit 103 can be visually recognized on the right side.

図8は、本発明の第1の実施の形態における表示装置100の外周より外側を360度にわたって撮影した画像の別の一例を示す概略図である。図8の一例の場合、表示装置100の外周より外側を360度にわたって撮影した画像に写った顔の位置は図6と同じであるが、目または眼鏡と鼻の位置を検出した結果、操作者検知部501は、顔の向きは図6の反対と判断する。すなわち、操作者検知部501は、操作者が表示装置100を逆方向から腕に装着していると判断する。この場合、操作者検知部501は、操作者が表示装置100を見たときに第2の表示部102と、第2の表示部102の左隣に第3の表示部103が、右隣に第1の表示部101が視認できると判断する。操作者検知部501は、第1〜第8の表示部101〜108の中からこれらの視認できる表示部を、コンテンツを表示する複数の隣接した表示部として決定する。   FIG. 8 is a schematic diagram illustrating another example of an image obtained by photographing the outside of the outer periphery of the display device 100 according to the first embodiment of the present invention over 360 degrees. In the case of the example in FIG. 8, the position of the face shown in the image taken 360 degrees outside the outer periphery of the display device 100 is the same as in FIG. 6, but as a result of detecting the positions of the eyes or glasses and nose, The detection unit 501 determines that the face orientation is opposite to that in FIG. That is, the operator detection unit 501 determines that the operator wears the display device 100 on the arm from the reverse direction. In this case, when the operator looks at the display device 100, the operator detection unit 501 has the second display unit 102, the third display unit 103 on the left side of the second display unit 102, and the right side of the second display unit 102. It is determined that the first display unit 101 is visible. The operator detection unit 501 determines these visible display units from among the first to eighth display units 101 to 108 as a plurality of adjacent display units that display content.

コンテンツ制御部502は、操作者の顔の位置と向きと、操作者検知部501がコンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部に表示するよう制御する。なお、それぞれの表示部に表示するコンテンツはどのような種類のコンテンツでも構わない。たとえば図示しない時刻管理部から発行される時刻や日時の情報を表示してもよいし、図示しない画像記憶部の画像を表示してもよい。外部の端末から無線通信によって受信した画面情報を表示してもよい。   The content control unit 502 corrects the content to be displayed on each display unit based on the position and orientation of the operator's face and the angle of the display unit from which the operator detection unit 501 has determined the display of the content. Control to display on the screen. The content displayed on each display unit may be any type of content. For example, information on time and date issued from a time management unit (not shown) may be displayed, or an image in an image storage unit (not shown) may be displayed. Screen information received from an external terminal by wireless communication may be displayed.

まず、操作者の顔の位置と向きに基づいたコンテンツの補正方法を説明する。コンテンツ制御部502は、操作者検知部501が判別した操作者の顔の向き、すなわち表示装置100の外周より外側を360度にわたって撮影した画像の水平方向からの角度θを取得する。表示装置100の外周より外側を360度にわたって撮影した画像の水平方向は、操作者がいる視認領域に対応する表示部の円周方向と一致する。従って、コンテンツ制御部502が操作者の顔の向きと同じ角度θだけコンテンツを回転させた画像を出力し、操作者検知部501が表示を決定した表示部に表示することで、操作者は角度を気にせずコンテンツを視認できる。   First, a content correction method based on the position and orientation of the operator's face will be described. The content control unit 502 acquires the orientation of the operator's face determined by the operator detection unit 501, that is, the angle θ from the horizontal direction of the image captured 360 degrees outside the outer periphery of the display device 100. The horizontal direction of the image taken outside 360 degrees from the outer periphery of the display device 100 coincides with the circumferential direction of the display unit corresponding to the visual recognition area where the operator is present. Therefore, the content control unit 502 outputs an image obtained by rotating the content by the same angle θ as the face direction of the operator, and displays the image on the display unit that the operator detection unit 501 has determined to display, so that the operator You can view the content without worrying about.

図9は、本発明の第1の実施の形態における表示装置100の第1〜3の表示部101〜103にコンテンツを表示する方法の一例を示す概略図である。図9を参照すると、操作者の顔の向きが角度θの場合、コンテンツ制御部502は、第2の表示部102に出力するコンテンツを第2の表示部102の円周方向から90°−θ回転した補正を行い、補正結果の画像を出力する。同様にコンテンツ制御部502は、第1の表示部101に出力するコンテンツと第3の表示部103に出力するコンテンツを、第2の表示部102の円周方向から90°−θ回転した補正を行い、補正結果の画像をそれぞれ出力する。   FIG. 9 is a schematic diagram illustrating an example of a method for displaying content on the first to third display units 101 to 103 of the display device 100 according to the first embodiment of the present invention. Referring to FIG. 9, when the orientation of the operator's face is an angle θ, the content control unit 502 outputs content to be output to the second display unit 102 by 90 ° −θ from the circumferential direction of the second display unit 102. The rotated correction is performed, and an image of the correction result is output. Similarly, the content control unit 502 performs correction by rotating the content output to the first display unit 101 and the content output to the third display unit 103 by 90 ° -θ from the circumferential direction of the second display unit 102. The correction result image is output.

次に、コンテンツの表示を決定した表示部の角度に基づくコンテンツの補正方法を説明する。   Next, a content correction method based on the angle of the display unit that determines the content display will be described.

図10は、本発明の第1の実施の形態における表示装置100の第1〜3の表示部101〜103にコンテンツを表示した場合の操作者からの見え方の一例を示す概略図である。なお、実際は前述の操作者の顔の位置と向きに基づいたコンテンツの補正を実施した後に本補正を実施するが、図10では説明の簡略化のため前述の補正がない場合(第2の表示部102を正面から見た場合、θ=90°)として説明する。図10を参照すると、第1の表示部101と第2の表示部102、第2の表示部102と第3の表示部103は、それぞれ45度傾いた状態で設置される。このため、第2の表示部102に対応する第2の視認領域402にいる操作者からは、第3の表示部103のコンテンツは、第2の表示部102のコンテンツと比較して1/√2倍に圧縮されて見える。すなわち実際の第3の表示部103の円周方向の長さをcとすると、操作者は、第3の表示部103の円周方向の長さはc/√2として視認される。このことは第1の表示部101に関しても同様である。このことを補正するために、コンテンツ制御部502は、第1の表示部101、第3の表示部103に表示するコンテンツを、あらかじめ円周方向に√2倍に拡大した画像をそれぞれ生成する。そして、コンテンツ制御部502は、生成した画像を第1の表示部101、第3の表示部103にそれぞれ送信し表示するよう制御する。この補正を実施することで、操作者は、表示部の角度を気にせずコンテンツを視認できる。   FIG. 10 is a schematic diagram illustrating an example of how the operator sees content when the contents are displayed on the first to third display units 101 to 103 of the display device 100 according to the first embodiment of the present invention. Actually, the main correction is performed after the above-described content correction based on the position and orientation of the operator's face. However, in FIG. 10, when the above-described correction is not performed (second display) Description will be made assuming that the portion 102 is viewed from the front, θ = 90 °. Referring to FIG. 10, the first display unit 101 and the second display unit 102, and the second display unit 102 and the third display unit 103 are installed in a state of being inclined by 45 degrees. Therefore, from the operator in the second viewing area 402 corresponding to the second display unit 102, the content of the third display unit 103 is 1 / √ compared to the content of the second display unit 102. It looks compressed twice. That is, assuming that the actual circumferential length of the third display unit 103 is c, the operator can visually recognize the circumferential length of the third display unit 103 as c / √2. The same applies to the first display unit 101. In order to correct this, the content control unit 502 generates an image obtained by enlarging the content to be displayed on the first display unit 101 and the third display unit 103 in advance in the circumferential direction by √2. Then, the content control unit 502 controls the generated image to be transmitted and displayed on the first display unit 101 and the third display unit 103, respectively. By performing this correction, the operator can view the content without worrying about the angle of the display unit.

図11は、本発明の第1の実施の形態における表示装置100の操作者検知部501とコンテンツ制御部502をコンピュータ装置で実現した場合のハードウェア構成例を示す図である。図11に示されるように、操作者検知部501とコンテンツ制御部502は、それぞれ通信インタフェース10、CPU(Central Processing Unit)11、および主記憶装置14、および二次記憶装置15を含む。   FIG. 11 is a diagram illustrating a hardware configuration example when the operator detection unit 501 and the content control unit 502 of the display device 100 according to the first embodiment of the present invention are realized by a computer device. As shown in FIG. 11, the operator detection unit 501 and the content control unit 502 include a communication interface 10, a CPU (Central Processing Unit) 11, a main storage device 14, and a secondary storage device 15, respectively.

通信インタフェース10は、処理装置および周辺端末との通信のための入出力インタフェースを構成する。また通信インタフェース10は、操作者検知部501とコンテンツ制御部502に接続する図示しないネットワークとの接続制御のためのインタフェースも含む。   The communication interface 10 constitutes an input / output interface for communication with the processing device and peripheral terminals. The communication interface 10 also includes an interface for connection control between an operator detection unit 501 and a network (not shown) connected to the content control unit 502.

CPU11は、オペレーティングシステムを動作させて本発明の第1の実施の形態に係る操作者検知部501とコンテンツ制御部502の全体を制御する。また、CPU11は、例えば二次記憶装置15から主記憶装置14にプログラムまたはデータを読み出す。具体的には、CPU11は、第1の実施の形態における操作者検知部501とコンテンツ制御部502として動作し、それぞれプログラム制御に基づいて各種の処理を実行する。また、操作者検知部501とコンテンツ制御部502のCPU11は、1つに限らず2つ以上備えていてもよい。また、操作者検知部501とコンテンツ制御部502は、共通のCPU11を使用してもよい。   The CPU 11 operates the operating system to control the entire operator detection unit 501 and content control unit 502 according to the first embodiment of the present invention. Further, the CPU 11 reads a program or data from the secondary storage device 15 to the main storage device 14, for example. Specifically, the CPU 11 operates as the operator detection unit 501 and the content control unit 502 in the first embodiment, and executes various processes based on program control. Further, the CPU 11 of the operator detection unit 501 and the content control unit 502 is not limited to one and may include two or more CPUs. Further, the operator detection unit 501 and the content control unit 502 may use a common CPU 11.

主記憶装置14は、CPU11の制御に基づく作業用メモリである。   The main storage device 14 is a working memory based on the control of the CPU 11.

二次記憶装置15は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、または半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。二次記憶装置15は、操作者検知部501とコンテンツ制御部502が実行するためのコンピュータプログラムを一時的に記憶するまたは非一時的に記憶する。したがって、CPU11は、二次記憶装置15に記録されているコンピュータプログラムを読み込み、そのプログラムにしたがって、操作者検知部501とコンテンツ制御部502として動作してもよい。   The secondary storage device 15 is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, or the like, and records a computer program so that it can be read by a computer. The secondary storage device 15 temporarily or non-temporarily stores a computer program to be executed by the operator detection unit 501 and the content control unit 502. Therefore, the CPU 11 may read a computer program recorded in the secondary storage device 15 and operate as the operator detection unit 501 and the content control unit 502 according to the program.

また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされてもよい。   The computer program may be downloaded from an external computer (not shown) connected to the communication network.

なお、操作者検知部501とコンテンツ制御部502は、図11に示すコンピュータ装置に限らず、各部がハードウェア回路によって実現されてもよい。ただし、操作者検知部501とコンテンツ制御部502が備える各部の実現手段は特に限定されない。すなわち、操作者検知部501とコンテンツ制御部502は、物理的に結合した1つの装置により実現されてもよいし、物理的に分離した2つ以上の装置を有線または無線で接続し、これら複数の装置により実現されてもよい。   Note that the operator detection unit 501 and the content control unit 502 are not limited to the computer device illustrated in FIG. 11, and each unit may be realized by a hardware circuit. However, the means for realizing each unit included in the operator detection unit 501 and the content control unit 502 is not particularly limited. In other words, the operator detection unit 501 and the content control unit 502 may be realized by one physically coupled device, or two or more physically separated devices are connected by wire or wirelessly. It may be realized by the apparatus.

以上のように構成された表示装置100の動作について、図12のフローチャートを参照して説明する。   The operation of the display device 100 configured as described above will be described with reference to the flowchart of FIG.

図12は、第1の実施の形態における表示装置100でのコンテンツ表示の動作の概要を示すフローチャートである。尚、このフローチャートによる処理は、前述したCPUによるプログラム制御に基づいて、実行されても良い。   FIG. 12 is a flowchart illustrating an outline of content display operation on the display device 100 according to the first embodiment. Note that the processing according to this flowchart may be executed based on the above-described program control by the CPU.

図12に示すように、まず、操作者検知部501は、常時第1〜第4の撮影部201〜204が撮影した画像を画像処理し、監視する(ステップS101)。   As shown in FIG. 12, first, the operator detection unit 501 always performs image processing and monitors images captured by the first to fourth imaging units 201 to 204 (step S <b> 101).

次に、操作者検知部501は、画像処理した画像内に人間の顔が認識できるか否かを確認する(ステップS102)。もし人間の顔が認識できない場合(ステップS102でNO)、操作者検知部501は、ステップS101に戻り画像を監視する。人間の顔が認識できる場合(ステップS102でYES)、操作者検知部501は、認識した顔を操作者の顔とみなし、操作者の顔の位置と向きを判別する(ステップS103)。   Next, the operator detection unit 501 checks whether or not a human face can be recognized in the image processed image (step S102). If a human face cannot be recognized (NO in step S102), the operator detection unit 501 returns to step S101 and monitors the image. When a human face can be recognized (YES in step S102), the operator detection unit 501 regards the recognized face as the operator's face, and determines the position and orientation of the operator's face (step S103).

次に、操作者検知部501は、ステップS103での判別結果に基づいて第1〜第8の表示部101〜108の中からコンテンツを表示する複数の隣接した表示部を決定する(ステップS104)。   Next, the operator detection unit 501 determines a plurality of adjacent display units that display content from the first to eighth display units 101 to 108 based on the determination result in step S103 (step S104). .

次に、操作者検知部501は、写っている操作者の顔を画像解析し、目または眼鏡と鼻の位置を検出する(ステップS105)。   Next, the operator detection unit 501 performs image analysis on the reflected operator's face and detects the positions of eyes or glasses and nose (step S105).

次に、操作者検知部501は、ステップS105での検出結果に基づいて操作者の顔の向きを判断する(ステップS106)。   Next, the operator detection unit 501 determines the orientation of the operator's face based on the detection result in step S105 (step S106).

次に、コンテンツ制御部502は、ステップS104で決定した表示部に表示するコンテンツのデータを取得する(ステップS107)。   Next, the content control unit 502 acquires content data to be displayed on the display unit determined in step S104 (step S107).

次に、コンテンツ制御部502は、ステップS106で判断した操作者の顔の向きに基づいて、ステップS107で取得したコンテンツのデータを補正した画像を生成する(ステップS108)。   Next, the content control unit 502 generates an image obtained by correcting the content data acquired in step S107 based on the face orientation of the operator determined in step S106 (step S108).

次に、コンテンツ制御部502は、コンテンツを表示する表示部の角度に基づいてステップS108で生成した画像をさらに補正する(ステップS109)。   Next, the content control unit 502 further corrects the image generated in step S108 based on the angle of the display unit that displays the content (step S109).

次に、コンテンツ制御部502は、ステップS109で補正した画像をコンテンツを表示する表示部にそれぞれ送信し表示するよう制御する(ステップS110)。   Next, the content control unit 502 controls to transmit and display the image corrected in step S109 to the display unit that displays the content (step S110).

次に、コンテンツを表示する表示部は、ステップS110でのコンテンツ制御部502の制御に基づき、受信した画像を表示する(ステップS111)。   Next, the display unit that displays the content displays the received image based on the control of the content control unit 502 in step S110 (step S111).

以上で、表示装置100は、コンテンツ表示の動作を終了する。   Thus, the display device 100 ends the content display operation.

次に、本発明の第1の実施の形態の効果について説明する。   Next, effects of the first exemplary embodiment of the present invention will be described.

上述した本実施形態における表示装置100は、操作者にコンテンツの表示を視認しやすく、かつより多くの情報量を提供できる。   The above-described display device 100 according to the present embodiment makes it easy for the operator to visually recognize the display of content, and can provide a larger amount of information.

その理由は、以下のような構成を含むからである。即ち、第1に操作者検知部501は、第1〜第4の撮影部201〜204が撮影した画像を画像処理し、人間の顔が認識できるか否かを確認する。第2に、操作者検知部501は、人間の顔を検知した場合、操作者の顔の位置と向きを判別し、第1〜第8の表示部101〜108の中からコンテンツを表示する複数の隣接した表示部を決定する。第3に、コンテンツ制御部502は、操作者の顔の位置と向きと、操作者検知部501がコンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部に表示するよう制御する。これにより、表示装置100は、複数の隣接した表示部にコンテンツを表示できる。なおかつ操作者は、自分と表示装置100との相対角度と表示部の角度を気にせずコンテンツを視認できる。このため、表示装置100は、操作者にコンテンツの表示を視認しやすく、かつより多くの情報量を提供できるという効果が得られる。   This is because the following configuration is included. That is, first, the operator detection unit 501 performs image processing on images captured by the first to fourth imaging units 201 to 204, and confirms whether or not a human face can be recognized. Secondly, when the operator detection unit 501 detects a human face, the operator detection unit 501 determines the position and orientation of the operator's face, and displays a plurality of contents from the first to eighth display units 101 to 108. The adjacent display part is determined. Third, the content control unit 502 corrects the content displayed on each display unit based on the position and orientation of the operator's face and the angle of the display unit that the operator detection unit 501 has determined to display the content. , Control to display on the display unit. Thereby, the display apparatus 100 can display content on a plurality of adjacent display units. In addition, the operator can view the content without worrying about the relative angle between the user and the display device 100 and the angle of the display unit. For this reason, the display device 100 can obtain an effect that the operator can easily view the display of the content and can provide a larger amount of information.

また、変形例として、表示装置100は、図示しない記憶部に特定の人の顔の構造のパターンを記憶し、操作者検知部501が人間の顔を検知した場合、記憶している特定の人の顔の構造のパターンと合致するか否かを判定してもよい。記憶している特定の人の顔の構造のパターンと合致した場合に限り、表示装置100は、コンテンツ表示の動作を継続する処理を行う。ここで、顔の構造のパターンとはたとえば目または眼鏡と鼻の位置のパターンである。この変形例の場合、表示装置100は、顔の構造のパターンを記憶する特定の人以外の人の顔を検知しても表示部にコンテンツを表示しない。このため他人が情報を取得することを防止し、セキュリティの向上が期待できる。   As a modification, the display device 100 stores a pattern of the structure of a specific person's face in a storage unit (not shown), and when the operator detection unit 501 detects a human face, the stored specific person It may be determined whether or not the pattern matches the face structure pattern. The display device 100 performs a process of continuing the content display operation only when it matches the stored pattern of the face structure of a specific person. Here, the pattern of the face structure is, for example, a pattern of positions of eyes or glasses and nose. In the case of this modification, the display device 100 does not display content on the display unit even if a face of a person other than a specific person that stores the pattern of the face structure is detected. For this reason, it is possible to prevent others from acquiring information and to improve security.

また、変形例として、表示装置100は、操作者検知部501が複数の人間の顔を検知した場合、検知した人間のいる視認領域に対応する表示部全てにコンテンツを表示してもよい。この変形例の場合、複数の人間が同時にコンテンツを閲覧可能で、かつ人が不在の表示部にはコンテンツを表示せず消費電力を低減できる受像機としての活用が期待できる。   Further, as a modification, when the operator detection unit 501 detects a plurality of human faces, the display device 100 may display the content on all the display units corresponding to the detected human visual area. In the case of this modification, it can be expected to be used as a receiver that allows a plurality of people to view the content at the same time and does not display the content on a display portion where no people are present, thereby reducing power consumption.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。以下、本実施形態の説明が不明確にならない範囲で、前述の説明と重複する内容については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. Hereinafter, the description overlapping with the above description is omitted as long as the description of the present embodiment is not obscured.

図13は、本発明の第2の実施形態に係る表示装置110の構成の一例を示すブロック図である。   FIG. 13 is a block diagram showing an example of the configuration of the display device 110 according to the second embodiment of the present invention.

図13を参照すると、本実施形態における表示装置110は、第1の実施形態のそれと比べて、振動検知部503が追加される。   Referring to FIG. 13, the display device 110 according to the present embodiment is added with a vibration detection unit 503 as compared with that of the first embodiment.

振動検知部503は、表示装置110の図示しない電源部と接続し、所定の強度以上の振動を検知した場合、第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204に電源を供給する。また、振動を検知して所定の時間が経過した場合、第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204への電源の供給を停止する。振動検知部503は、たとえば加速度センサによって実現される。また、所定の強度以上の振動とは、具体的には表示装置110を腕に装着した操作者が、表示装置110の表示を確認するために腕を上げる程度の振動である。すなわち、本実施形態における表示装置110は、操作者が表示装置110の表示を確認するために腕を上げるしぐさを行ったことをトリガとして第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204に通電する。その結果、第1〜第4の撮影部201〜204はそれぞれ第1〜第4の撮影領域301〜304の撮影を開始する。   When the vibration detection unit 503 is connected to a power supply unit (not shown) of the display device 110 and detects vibration of a predetermined intensity or more, the first to eighth display units 101 to 108 and the first to fourth imaging units 201 are detected. Supply power to ~ 204. Further, when a predetermined time has elapsed after detecting vibration, the supply of power to the first to eighth display units 101 to 108 and the first to fourth imaging units 201 to 204 is stopped. The vibration detection unit 503 is realized by, for example, an acceleration sensor. Further, the vibration of a predetermined intensity or higher is specifically a vibration that causes an operator who wears the display device 110 on his / her arm to raise his / her arm in order to confirm the display on the display device 110. In other words, the display device 110 according to the present embodiment uses the first to eighth display units 101 to 108 and the first to eighth triggers triggered by the operator raising his arm to confirm the display on the display device 110. The fourth imaging units 201 to 204 are energized. As a result, the first to fourth photographing units 201 to 204 start photographing the first to fourth photographing regions 301 to 304, respectively.

これらの処理完了後、第1の実施形態における表示装置100と同様にコンテンツ表示の動作を開始する。   After these processes are completed, the content display operation is started in the same manner as the display device 100 in the first embodiment.

次に、表示装置110の動作について図14に示すフローチャートを参照して説明する。   Next, the operation of the display device 110 will be described with reference to the flowchart shown in FIG.

図14は、第2の実施の形態における表示装置110での第1〜第4の撮影部201〜204への電源の供給の開始の動作の概要を示すフローチャートである。尚、このフローチャートによる処理も、前述したCPUによるプログラム制御に基づいて、実行されても良い。   FIG. 14 is a flowchart illustrating an outline of the operation of starting the supply of power to the first to fourth imaging units 201 to 204 in the display device 110 according to the second embodiment. Note that the processing according to this flowchart may also be executed based on the above-described program control by the CPU.

図14に示すように、まず、振動検知部503が所定の強度以上の振動を検知しない場合(ステップS201でNO)、かつ所定の時間が経過していない場合(ステップS202でNO)、本処理はそのまま終了する。所定の時間が経過し(ステップS202でYES)、かつ第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204が通電している場合(ステップS203でYES)、振動検知部503は表示部と撮影部への電源供給を止める(ステップS204)。第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204が通電していない場合(ステップS203でNO)、本処理はそのまま終了する。   As shown in FIG. 14, first, when the vibration detection unit 503 does not detect vibration of a predetermined intensity or more (NO in step S201), and when a predetermined time has not elapsed (NO in step S202), this processing is performed. Ends as is. When the predetermined time has elapsed (YES in step S202) and the first to eighth display units 101 to 108 and the first to fourth imaging units 201 to 204 are energized (YES in step S203), The vibration detection unit 503 stops power supply to the display unit and the imaging unit (step S204). If the first to eighth display units 101 to 108 and the first to fourth imaging units 201 to 204 are not energized (NO in step S203), the process ends.

振動検知部503が所定の強度以上の振動を検知した場合(ステップS201でYES)、振動検知部503は、図示しない電源部より第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204に電源の供給を開始する(ステップS205)。   When the vibration detection unit 503 detects a vibration having a predetermined intensity or more (YES in step S201), the vibration detection unit 503 receives the first to eighth display units 101 to 108 and the first to fourth from the power supply unit (not shown). The power supply to the photographing units 201 to 204 is started (step S205).

以上で、表示装置110は、第1〜第4の撮影部201〜204への電源の供給の開始の動作を終了する。本動作は常に定期的に処理を実施する。   Thus, the display device 110 ends the operation of starting the supply of power to the first to fourth imaging units 201 to 204. This operation is always performed periodically.

次に、本発明の第2の実施の形態の効果について説明する。   Next, effects of the second exemplary embodiment of the present invention will be described.

上述した本実施形態における表示装置110は、消費電力を低減できる。   The display device 110 in the present embodiment described above can reduce power consumption.

その理由は、以下のような構成を含むからである。即ち、第1に振動検知部503は、操作者が表示装置110の表示を確認するために腕を上げるような所定の強度以上の振動を検知した場合、図示しない電源部より第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204に電源の供給を開始する。第2に、振動検知部503は、所定の時間が経過し、かつ第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204が通電している場合、電源の供給を停止する。したがって、操作者が表示装置110の表示を確認するために腕を上げるしぐさを行ったことをトリガとして第1〜第4の撮影部201〜204の撮影が開始され、所定の時間が経過した場合第1〜第4の撮影部201〜204の撮影が停止する。このため、例えば操作者が表示装置110を視認していないような場合は、第1〜第8の表示部101〜108と第1〜第4の撮影部201〜204は通電せず、第1〜第4の撮影部201〜204の撮影を行わない。このため、表示装置110は、消費電力を低減できるという効果が得られる。   This is because the following configuration is included. That is, first, the vibration detection unit 503 detects first to eighth power from a power supply unit (not shown) when the operator detects a vibration of a predetermined strength or higher that raises an arm to confirm the display on the display device 110. Supply of power to the display units 101 to 108 and the first to fourth imaging units 201 to 204 is started. Second, the vibration detection unit 503 has a power supply when a predetermined time has elapsed and the first to eighth display units 101 to 108 and the first to fourth imaging units 201 to 204 are energized. Stop supplying. Therefore, when a predetermined time has elapsed after the first to fourth imaging units 201 to 204 have started to be triggered by the operator performing a gesture of raising his arm to check the display on the display device 110 The imaging of the first to fourth imaging units 201 to 204 is stopped. For this reason, for example, when the operator does not visually recognize the display device 110, the first to eighth display units 101 to 108 and the first to fourth imaging units 201 to 204 are not energized, and the first -The 4th imaging | photography parts 201-204 are not imaged. For this reason, the display device 110 has an effect of reducing power consumption.

[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。以下、本実施形態の説明が不明確にならない範囲で、前述の説明と重複する内容については説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. Hereinafter, the description overlapping with the above description is omitted as long as the description of the present embodiment is not obscured.

図15は、本発明の第3の実施形態に係る表示装置120の構成の一例を示すブロック図である。   FIG. 15 is a block diagram showing an example of the configuration of the display device 120 according to the third embodiment of the present invention.

図15を参照すると、本実施形態における表示装置120は、第1の実施形態のそれと比べて、操作者検知部501の代わりに操作者光源検知部521を備える。また、コンテンツ制御部502に代えてコンテンツ制御部522を備える。   Referring to FIG. 15, the display device 120 according to the present embodiment includes an operator light source detection unit 521 instead of the operator detection unit 501 as compared with that of the first embodiment. Further, a content control unit 522 is provided instead of the content control unit 502.

操作者光源検知部521は、第1の実施形態における操作者検知部501とは以下の点で処理が異なる。ステップS102において、操作者光源検知部521は、画像処理した画像内に人間の顔が認識できるか否かだけではなく所定の照度以上の光源があるか否かも確認する。所定の照度以上の光源とは、屋外における太陽とみなされる光源である。また、ステップS103において、操作者光源検知部521は、操作者の顔の位置と向きを判別するだけでなく、所定の照度以上の光源があった場合、光源の位置が第1〜第8の視認領域401〜408のどの領域にいるかも判別する。また、ステップS110において、所定の照度以上の光源の位置が操作者のいる視認領域に隣接する領域にある場合、光源が含まれる視認領域に対応する表示部は消灯する制御を行う。たとえば図5の一例の場合、操作者がいる第2の視認領域402に隣接する第1の視認領域401もしくは第3の視認領域403にて所定の照度以上の光源が検出される場合である。これは、太陽のような明るい光源が当該の領域にある場合、操作者は、当該の表示部を視認することが困難なためである。   The operator light source detection unit 521 is different from the operator detection unit 501 in the first embodiment in processing in the following points. In step S <b> 102, the operator light source detection unit 521 checks not only whether a human face can be recognized in the image processed image, but also whether there is a light source with a predetermined illuminance or higher. A light source having a predetermined illuminance or higher is a light source regarded as the sun outdoors. In step S103, the operator light source detection unit 521 not only determines the position and orientation of the operator's face, but also if the light source has a predetermined illuminance or higher, the position of the light source is the first to eighth positions. It is also determined which of the viewing areas 401 to 408 is located. In step S110, when the position of the light source equal to or higher than the predetermined illuminance is in a region adjacent to the viewing region where the operator is present, control is performed to turn off the display unit corresponding to the viewing region including the light source. For example, in the example of FIG. 5, a light source having a predetermined illuminance or higher is detected in the first visual recognition area 401 or the third visual recognition area 403 adjacent to the second visual recognition area 402 where the operator is present. This is because it is difficult for an operator to visually recognize the display unit when a bright light source such as the sun is in the region.

次に、本発明の第3の実施の形態の効果について説明する。   Next, effects of the third exemplary embodiment of the present invention will be described.

上述した本実施形態における表示装置120は、さらに消費電力を低減できる。   The display device 120 in the present embodiment described above can further reduce power consumption.

その理由は、以下のような構成を含むからである。即ち、第1に、操作者光源検知部521は、画像処理した画像内に所定の照度以上の光源があるか否かを確認する。第2に、コンテンツ制御部522は、所定の照度以上の光源の位置が操作者のいる視認領域に隣接する領域にある場合、光源が含まれる視認領域に対応する表示部は消灯する制御を行う。これにより、操作者が視認することが困難な表示部を消灯するため、表示装置120は、さらに消費電力を低減できるという効果が得られる。   This is because the following configuration is included. That is, first, the operator light source detection unit 521 checks whether or not there is a light source having a predetermined illuminance or higher in the image that has been subjected to image processing. Second, the content control unit 522 performs control to turn off the display unit corresponding to the visual recognition area including the light source when the position of the light source having a predetermined illuminance or higher is in an area adjacent to the visual recognition area where the operator is present. . Thereby, since the display part that is difficult for the operator to visually recognize is turned off, the display device 120 can further reduce power consumption.

以上説明した、本発明の各実施形態における各構成要素は、その機能をハードウェア的に実現することはもちろん、プログラム制御に基づくコンピュータ装置、ファームウェアで実現することができる。プログラムは、磁気ディスクや半導体メモリなどのコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られる。この読み取られたプログラムは、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における構成要素として機能させる。   Each component in each embodiment of the present invention described above can be realized by a computer apparatus and firmware based on program control as well as by realizing the function in hardware. The program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer when the computer is started up. The read program causes the computer to function as a component in each of the embodiments described above by controlling the operation of the computer.

以上、各実施の形態を参照して本発明を説明したが、本発明は上記実施の形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しえる様々な変更をすることができる。   Although the present invention has been described with reference to each embodiment, the present invention is not limited to the above embodiment. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

たとえば、以上の各実施形態で説明した各構成要素は、必ずしも個々に独立した存在である必要はない。例えば、各構成要素は、複数の構成要素が1個のモジュールとして実現されたり、一つの構成要素が複数のモジュールで実現されたりしてもよい。また、各構成要素は、ある構成要素が他の構成要素の一部であったり、ある構成要素の一部と他の構成要素の一部とが重複していたり、といったような構成であってもよい。   For example, each component described in each of the above embodiments does not necessarily have to be individually independent. For example, for each component, a plurality of components may be realized as one module, or one component may be realized as a plurality of modules. Each component is configured such that a component is a part of another component, or a part of a component overlaps a part of another component. Also good.

また、以上説明した各実施形態では、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は内容的に支障しない範囲で変更することができる。   Further, in each of the embodiments described above, a plurality of operations are described in order in the form of a flowchart, but the described order does not limit the order in which the plurality of operations are executed. For this reason, when each embodiment is implemented, the order of the plurality of operations can be changed within a range that does not hinder the contents.

さらに、以上説明した各実施形態では、複数の動作は個々に相違するタイミングで実行されることに限定されない。例えば、ある動作の実行中に他の動作が発生したり、ある動作と他の動作との実行タイミングが部分的に乃至全部において重複していたりしていてもよい。   Furthermore, in each embodiment described above, a plurality of operations are not limited to being executed at different timings. For example, another operation may occur during the execution of a certain operation, or the execution timing of a certain operation and another operation may partially or entirely overlap.

さらに、以上説明した各実施形態では、ある動作が他の動作の契機になるように記載しているが、その記載はある動作と他の動作の全ての関係を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の関係は内容的に支障のない範囲で変更することができる。また各構成要素の各動作の具体的な記載は、各構成要素の各動作を限定するものではない。このため、各構成要素の具体的な各動作は、各実施形態を実施する上で機能的、性能的、その他の特性に対して支障をきたさない範囲内で変更されて良い。   Furthermore, in each of the embodiments described above, a certain operation is described as a trigger for another operation, but the description does not limit all relationships between the certain operation and the other operations. For this reason, when each embodiment is implemented, the relationship between the plurality of operations can be changed within a range that does not hinder the contents. The specific description of each operation of each component does not limit each operation of each component. For this reason, each specific operation | movement of each component may be changed in the range which does not cause trouble with respect to a functional, performance, and other characteristic in implementing each embodiment.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)外側の表面に複数、異なる角度で備えられ、それぞれコンテンツを表示する表示部と、周囲を360度撮影する撮影部と、撮影部が撮影した画像を画像処理し、操作者の顔の位置と向きを検知した結果に基づきコンテンツを表示する複数の隣接した表示部を決定する操作者検知部と、操作者の顔の位置と向きと、操作者検知部がコンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させるコンテンツ制御部とを備える表示装置。   (Supplementary Note 1) A plurality of different angles are provided on the outer surface, each of which displays a content, a photographing unit that captures 360 degrees of the surroundings, an image photographed by the photographing unit, and processes the image of the operator's face Based on the result of detecting the position and orientation of the operator, the operator detection unit that determines a plurality of adjacent display units for displaying the content, the position and orientation of the operator's face, and the operator detection unit determines the display of the content A display device comprising: a content control unit that corrects content to be displayed on each display unit based on an angle of the display unit and displays the content on the display unit.

(付記2)操作者検知部は、画像処理した撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する付記1に記載の表示装置。   (Additional remark 2) The operator detection part detects the position and direction of a face based on the result of having extracted the position of the eyes or glasses and nose of a person's face from the image which the image | photographing part image-processed image | photographed. The display device described in 1.

(付記3)振動を検知する振動検知部をさらに含み、振動検知部が所定の強度以上の振動を検知した場合、撮影部と表示部に電源が供給される付記1または2に記載の表示装置。   (Additional remark 3) The display apparatus of Additional remark 1 or 2 which further includes the vibration detection part which detects a vibration, and a power supply is supplied to an imaging | photography part and a display part when a vibration detection part detects the vibration more than predetermined intensity | strength. .

(付記4)操作者検知部は、さらに所定の照度以上の光源がある場合、光源の位置を検知し、コンテンツ制御部は、操作者の顔の位置と向きと、光源の位置に基づき、それぞれの表示部に対するコンテンツの表示の可否を決定する付記1乃至3のいずれか1項に記載の表示装置。   (Additional remark 4) When there exists a light source more than predetermined | prescribed illumination intensity, an operator detection part detects the position of a light source, and a content control part is based on the position and direction of an operator's face, and the position of a light source, respectively. 4. The display device according to any one of appendices 1 to 3, which determines whether or not content can be displayed on the display unit.

(付記5)操作者検知部が検知した操作者の顔の構造のパターンがあらかじめ記憶するパターンと一致した場合、コンテンツ制御部は表示部にコンテンツを表示する付記1乃至4のいずれか1項に記載の表示装置。   (Supplementary Note 5) If the pattern of the face structure of the operator detected by the operator detection unit matches the pattern stored in advance, the content control unit displays the content on the display unit according to any one of supplementary notes 1 to 4 The display device described.

(付記6)操作者検知部が同時に複数の顔の位置を検知した場合、少なくとも全ての顔の位置に基づき、コンテンツを表示する表示部を決定する付記1乃至4のいずれか1項に記載の表示装置。   (Additional remark 6) When the operator detection part detects the position of several faces simultaneously, any one of Additional remark 1 thru | or 4 which determines the display part which displays a content based on the position of all the faces at least. Display device.

(付記7)コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した表示部を決定し、検知した操作者の顔の位置と向きと、コンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させる表示制御方法。   (Supplementary note 7) A plurality of display units for displaying content are provided on the outer surface at different angles, and an image obtained by photographing the surroundings by 360 degrees is image-processed to detect the position and orientation of the operator's face, and the content A plurality of adjacent display units for displaying the content, and correcting the content displayed on each display unit based on the detected position and orientation of the operator's face and the angle of the display unit that determined the display of the content, A display control method for displaying each on the display unit.

(付記8)画像処理した撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する付記7に記載の表示制御方法。   (Supplementary note 8) The display control method according to supplementary note 7, wherein the position and orientation of the face are detected based on the result of extracting the positions of the eyes or glasses and nose of the person's face from the image photographed by the image processing photographing unit. .

(付記9)振動を検知する振動検知部をさらに含み、振動検知部が所定の強度以上の振動を検知した場合、撮影部と表示部に電源が供給される付記7または8に記載の表示制御方法。   (Supplementary note 9) The display control according to supplementary note 7 or 8, further including a vibration detection unit that detects vibration, wherein power is supplied to the photographing unit and the display unit when the vibration detection unit detects vibration of a predetermined intensity or more. Method.

(付記10)さらに所定の照度以上の光源がある場合、光源の位置を検知し、操作者の顔の位置と向きと、光源の位置に基づき、それぞれの表示部に対するコンテンツの表示の可否を決定する付記7乃至9のいずれか1項に記載の表示制御方法。   (Supplementary Note 10) Further, when there is a light source with a predetermined illuminance or higher, the position of the light source is detected, and whether or not content can be displayed on each display unit is determined based on the position and orientation of the operator's face and the position of the light source The display control method according to any one of appendices 7 to 9.

(付記11)検知した操作者の顔の構造のパターンがあらかじめ記憶するパターンと一致した場合、表示部にコンテンツを表示する付記7乃至10のいずれか1項に記載の表示制御方法。   (Supplementary note 11) The display control method according to any one of supplementary notes 7 to 10, wherein the content is displayed on the display unit when the detected pattern of the face structure of the operator matches the pattern stored in advance.

(付記12)同時に複数の顔の位置を検知した場合、少なくとも全ての顔の位置に基づき、コンテンツを表示する表示部を決定する付記7乃至11のいずれか1項に記載の表示制御方法。   (Supplementary note 12) The display control method according to any one of supplementary notes 7 to 11, wherein when a plurality of face positions are detected at the same time, a display unit for displaying content is determined based on at least all face positions.

(付記13)コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した表示部を決定し、検知した操作者の顔の位置と向きと、コンテンツの表示を決定した表示部の角度に基づき、それぞれの表示部に表示するコンテンツを補正し、当該の表示部にそれぞれ表示させる処理をコンピュータに実行させるプログラム。   (Supplementary note 13) A plurality of display units for displaying content are provided on the outer surface at different angles, and the image capturing unit performs image processing on an image of 360 degrees around the periphery, detects the position and orientation of the operator's face, A plurality of adjacent display units for displaying the content, and correcting the content displayed on each display unit based on the detected position and orientation of the operator's face and the angle of the display unit that determined the display of the content, A program that causes a computer to execute processing to be displayed on the display unit.

(付記14)画像処理した撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する処理をコンピュータに実行させる付記13に記載のプログラム。   (Additional remark 14) Additional processing 13 which makes a computer perform the process which detects the position and direction of a face based on the result of having extracted the position of the face of the person's face from the image which the image | photographing part image-processed, or eyeglasses and the nose. The program described in.

(付記15)さらに所定の照度以上の光源がある場合、光源の位置を検知し、操作者の顔の位置と向きと、光源の位置に基づき、それぞれの表示部に対するコンテンツの表示の可否を決定する処理をコンピュータに実行させる付記13または14に記載のプログラム。   (Supplementary note 15) Further, when there is a light source having a predetermined illuminance or higher, the position of the light source is detected, and whether or not content can be displayed on each display unit is determined based on the position and orientation of the operator's face and the light source position. 15. The program according to appendix 13 or 14, which causes a computer to execute processing to be performed.

(付記16)検知した操作者の顔の構造のパターンがあらかじめ記憶するパターンと一致した場合、表示部にコンテンツを表示する処理をコンピュータに実行させる付記13乃至15のいずれか1項に記載のプログラム。   (Supplementary note 16) The program according to any one of supplementary notes 13 to 15, which causes the computer to execute a process of displaying content on the display unit when the detected pattern of the face structure of the operator matches a pattern stored in advance. .

(付記17)同時に複数の顔の位置を検知した場合、少なくとも全ての顔の位置に基づき、コンテンツを表示する表示部を決定する処理をコンピュータに実行させる付記13乃至16のいずれか1項に記載のプログラム。   (Supplementary Note 17) The supplementary note 13 to 16, wherein when a plurality of face positions are detected at the same time, the computer executes a process of determining a display unit for displaying content based on at least all the face positions. Program.

10 通信インタフェース
11 CPU
14 主記憶装置
15 二次記憶装置
100、110、120 表示装置
101、102、103、104、105、106、107、108 表示部
201、202、203、204 撮影部
301、302、303、304、305、306、307、308 撮影領域
401、402、403、404、405、406、407、408 視認領域
501 操作者検知部
502、522 コンテンツ制御部
503 振動検知部
521 操作者光源検知部
10 Communication interface 11 CPU
14 Main storage device 15 Secondary storage device 100, 110, 120 Display device 101, 102, 103, 104, 105, 106, 107, 108 Display unit 201, 202, 203, 204 Shooting unit 301, 302, 303, 304, 305, 306, 307, 308 Imaging area 401, 402, 403, 404, 405, 406, 407, 408 Viewing area 501 Operator detection unit 502, 522 Content control unit 503 Vibration detection unit 521 Operator light source detection unit

Claims (10)

外側の表面に複数、異なる角度で備えられ、それぞれコンテンツを表示する表示部と、
周囲を360度撮影する撮影部と、
前記撮影部が撮影した画像を画像処理し、操作者の顔の位置と向きを検知した結果に基づきコンテンツを表示する複数の隣接した前記表示部を決定する操作者検知部と、
操作者の顔の位置と向きと、前記操作者検知部がコンテンツの表示を決定した前記表示部の角度に基づき、それぞれの前記表示部に表示するコンテンツを補正し、当該の前記表示部にそれぞれ表示させるコンテンツ制御部と
を備える表示装置。
A plurality of display units provided at different angles on the outer surface, each displaying content,
An imaging unit that captures 360 ° surroundings;
An operator detection unit that performs image processing on an image captured by the imaging unit and determines a plurality of adjacent display units that display content based on a result of detecting the position and orientation of the operator's face;
Based on the position and orientation of the operator's face and the angle of the display unit at which the operator detection unit has determined the display of the content, the content to be displayed on each display unit is corrected, and the display unit A display device comprising: a content control unit to be displayed.
前記操作者検知部は、画像処理した前記撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する請求項1に記載の表示装置。   The operator detection unit detects the position and orientation of a face based on the result of extracting the positions of the eyes or glasses and nose of a person's face from the image captured by the image capturing unit subjected to image processing. The display device described. 振動を検知する振動検知部をさらに含み、
前記振動検知部が所定の強度以上の振動を検知した場合、前記撮影部と前記表示部に電源が供給される請求項1または2に記載の表示装置。
It further includes a vibration detection unit that detects vibration,
The display device according to claim 1, wherein when the vibration detection unit detects a vibration having a predetermined intensity or more, power is supplied to the imaging unit and the display unit.
前記操作者検知部は、さらに所定の照度以上の光源がある場合、光源の位置を検知し、前記コンテンツ制御部は、操作者の顔の位置と向きと、前記光源の位置に基づき、それぞれの前記表示部に対するコンテンツの表示の可否を決定する請求項1乃至3のいずれか1項に記載の表示装置。   The operator detection unit further detects the position of the light source when there is a light source with a predetermined illuminance or higher, and the content control unit determines the position and orientation of the operator's face based on the position of the light source. The display device according to claim 1, wherein whether or not content can be displayed on the display unit is determined. 前記操作者検知部が検知した操作者の顔の構造のパターンがあらかじめ記憶するパターンと一致した場合、前記コンテンツ制御部は前記表示部にコンテンツを表示する請求項1乃至4のいずれか1項に記載の表示装置。   The content control unit displays content on the display unit when the pattern of the operator's face structure detected by the operator detection unit matches a pattern stored in advance. The display device described. 前記操作者検知部が同時に複数の顔の位置を検知した場合、少なくとも全ての顔の位置に基づき、コンテンツを表示する前記表示部を決定する請求項1乃至4のいずれか1項に記載の表示装置。   The display according to any one of claims 1 to 4, wherein when the operator detection unit detects the positions of a plurality of faces at the same time, the display unit for displaying content is determined based on at least the positions of all the faces. apparatus. コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、
撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した前記表示部を決定し、
検知した操作者の顔の位置と向きと、コンテンツの表示を決定した前記表示部の角度に基づき、それぞれの前記表示部に表示するコンテンツを補正し、当該の前記表示部にそれぞれ表示させる
表示制御方法。
A plurality of display parts for displaying content are provided on the outer surface at different angles,
The image capturing unit performs image processing on an image of 360 degrees around the periphery, detects the position and orientation of the operator's face, determines a plurality of adjacent display units for displaying content,
Based on the detected position and orientation of the operator's face and the angle of the display unit that has determined the display of the content, the content displayed on each display unit is corrected and displayed on the display unit. Method.
画像処理した前記撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する請求項7に記載の表示制御方法。   The display control method according to claim 7, wherein the position and orientation of the face are detected based on the result of extracting the positions of the eyes or glasses and nose of a person's face from the image captured by the image capturing unit that has performed image processing. コンテンツを表示する表示部を外側の表面に複数、異なる角度で備え、
撮影部が周囲を360度撮影した画像を画像処理し、操作者の顔の位置と向きを検知し、コンテンツを表示する複数の隣接した前記表示部を決定し、
検知した操作者の顔の位置と向きと、コンテンツの表示を決定した前記表示部の角度に基づき、それぞれの前記表示部に表示するコンテンツを補正し、当該の前記表示部にそれぞれ表示させる処理
をコンピュータに実行させるプログラム。
A plurality of display parts for displaying content are provided on the outer surface at different angles,
The image capturing unit performs image processing on an image of 360 degrees around the periphery, detects the position and orientation of the operator's face, determines a plurality of adjacent display units for displaying content,
Based on the detected position and orientation of the operator's face and the angle of the display unit that has determined the display of the content, the content to be displayed on each display unit is corrected and displayed on the display unit. A program to be executed by a computer.
画像処理した前記撮影部が撮影した画像の中から人の顔の目または眼鏡と鼻の位置を抽出した結果に基づき、顔の位置と向きを検知する処理
をコンピュータに実行させる請求項9に記載のプログラム。
10. The computer according to claim 9, wherein the computer executes processing for detecting the position and orientation of the face based on the result of extracting the positions of the eyes or glasses and nose of the person's face from the images captured by the image capturing unit that has performed the image processing. Program.
JP2015151708A 2015-07-31 2015-07-31 Display device, display control method, and program therefor Active JP6441763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151708A JP6441763B2 (en) 2015-07-31 2015-07-31 Display device, display control method, and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151708A JP6441763B2 (en) 2015-07-31 2015-07-31 Display device, display control method, and program therefor

Publications (2)

Publication Number Publication Date
JP2017032741A true JP2017032741A (en) 2017-02-09
JP6441763B2 JP6441763B2 (en) 2018-12-19

Family

ID=57987887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151708A Active JP6441763B2 (en) 2015-07-31 2015-07-31 Display device, display control method, and program therefor

Country Status (1)

Country Link
JP (1) JP6441763B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052572A (en) * 2018-09-25 2020-04-02 富士ゼロックス株式会社 Wearable device and control program
JP2020137000A (en) * 2019-02-22 2020-08-31 株式会社日立製作所 Video recording device and head-mounted display

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062267A (en) * 2002-07-25 2004-02-26 Sony Corp Information processing apparatus and method, program storage medium, and program
JP2004077862A (en) * 2002-08-20 2004-03-11 Sony Corp Device and method for display, personal digital assistant and its method, recording medium, and program
JP2004120204A (en) * 2002-09-25 2004-04-15 Fuji Photo Film Co Ltd Digital camera
WO2007007862A1 (en) * 2005-07-08 2007-01-18 Sharp Kabushiki Kaisha Multiple view display system
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2008289039A (en) * 2007-05-21 2008-11-27 Olympus Imaging Corp Camera and information apparatus
JP2009245376A (en) * 2008-03-31 2009-10-22 Toshiba Corp Information processing apparatus
JP2010044436A (en) * 2008-08-08 2010-02-25 Canon Inc Image display device and method, and program
JP2011013515A (en) * 2009-07-03 2011-01-20 J&K Car Electronics Corp Display device, program and display method
JP2011022420A (en) * 2009-07-16 2011-02-03 Sharp Corp Image display device
US20150077235A1 (en) * 2013-09-17 2015-03-19 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with user identification and image recording
JP2015106255A (en) * 2013-11-29 2015-06-08 株式会社Nttドコモ Display device and program
JP2015127897A (en) * 2013-12-27 2015-07-09 ソニー株式会社 Display control device, display control system, display control method, and program
JP2016539346A (en) * 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Interactive vehicle window display system with user identification and vehicle function control

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062267A (en) * 2002-07-25 2004-02-26 Sony Corp Information processing apparatus and method, program storage medium, and program
JP2004077862A (en) * 2002-08-20 2004-03-11 Sony Corp Device and method for display, personal digital assistant and its method, recording medium, and program
JP2004120204A (en) * 2002-09-25 2004-04-15 Fuji Photo Film Co Ltd Digital camera
JP2009500737A (en) * 2005-07-08 2009-01-08 シャープ株式会社 Multi-view display system
WO2007007862A1 (en) * 2005-07-08 2007-01-18 Sharp Kabushiki Kaisha Multiple view display system
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2008289039A (en) * 2007-05-21 2008-11-27 Olympus Imaging Corp Camera and information apparatus
JP2009245376A (en) * 2008-03-31 2009-10-22 Toshiba Corp Information processing apparatus
JP2010044436A (en) * 2008-08-08 2010-02-25 Canon Inc Image display device and method, and program
JP2011013515A (en) * 2009-07-03 2011-01-20 J&K Car Electronics Corp Display device, program and display method
JP2011022420A (en) * 2009-07-16 2011-02-03 Sharp Corp Image display device
US20150077235A1 (en) * 2013-09-17 2015-03-19 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with user identification and image recording
JP2016539346A (en) * 2013-09-17 2016-12-15 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Interactive vehicle window display system with user identification and vehicle function control
JP2015106255A (en) * 2013-11-29 2015-06-08 株式会社Nttドコモ Display device and program
JP2015127897A (en) * 2013-12-27 2015-07-09 ソニー株式会社 Display control device, display control system, display control method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052572A (en) * 2018-09-25 2020-04-02 富士ゼロックス株式会社 Wearable device and control program
JP7155808B2 (en) 2018-09-25 2022-10-19 富士フイルムビジネスイノベーション株式会社 Wearable device and control program
JP2020137000A (en) * 2019-02-22 2020-08-31 株式会社日立製作所 Video recording device and head-mounted display
JP7058621B2 (en) 2019-02-22 2022-04-22 株式会社日立製作所 Video recorder and head-mounted display

Also Published As

Publication number Publication date
JP6441763B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
KR102265326B1 (en) Apparatus and method for shooting an image in eletronic device havinag a camera
CN106062862B (en) System and method for immersive and interactive multimedia generation
US10805543B2 (en) Display method, system and computer-readable recording medium thereof
KR101883090B1 (en) Head mounted display
US9622654B2 (en) Device for and method of corneal imaging
US9123272B1 (en) Realistic image lighting and shading
US20150139509A1 (en) Head-mounted display apparatus and login method thereof
KR20170137476A (en) Mobile device and method for controlling thereof
US9514524B2 (en) Optical distortion compensation
CN104137028A (en) Device and method for controlling rotation of displayed image
US20150271457A1 (en) Display device, image display system, and information processing method
JP2012160898A (en) Image processing apparatus
KR20160061133A (en) Method for dispalying image and electronic device thereof
JP2011138449A (en) Display control device, display device, electronic apparatus and display control method
KR101690646B1 (en) Camera driving device and method for see-through displaying
JP6441763B2 (en) Display device, display control method, and program therefor
CN105373770A (en) An image acquisition apparatus, a terminal and an image acquisition method
KR100960269B1 (en) Apparatus of estimating user&#39;s gaze and the method thereof
US20140307091A1 (en) Image display method and image display system
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
JP2017143387A (en) Image processing control method, image processing control program, and image processing controller
JP2017173455A (en) Information processing device, information processing method, and program
EP3520071B1 (en) Consistent spherical photo and video orientation correction
CN109765990A (en) Picture display control method and picture display control program
JP6686319B2 (en) Image projection device and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181122

R150 Certificate of patent or registration of utility model

Ref document number: 6441763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150