JP2018067773A - Imaging device, control method thereof, program, and storage medium - Google Patents

Imaging device, control method thereof, program, and storage medium Download PDF

Info

Publication number
JP2018067773A
JP2018067773A JP2016204486A JP2016204486A JP2018067773A JP 2018067773 A JP2018067773 A JP 2018067773A JP 2016204486 A JP2016204486 A JP 2016204486A JP 2016204486 A JP2016204486 A JP 2016204486A JP 2018067773 A JP2018067773 A JP 2018067773A
Authority
JP
Japan
Prior art keywords
user
unit
image
imaging
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016204486A
Other languages
Japanese (ja)
Inventor
渡辺 和宏
Kazuhiro Watanabe
和宏 渡辺
武史 橘川
Takeshi Kitsukawa
武史 橘川
惇人 國分
Atsuhito Kokubu
惇人 國分
泰明 松浦
Yasuaki Matsuura
泰明 松浦
和也 堀切川
Kazuya Horikirikawa
和也 堀切川
亘 加来
Wataru Kako
亘 加来
かおり 三宅
Kaori Miyake
かおり 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016204486A priority Critical patent/JP2018067773A/en
Publication of JP2018067773A publication Critical patent/JP2018067773A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that notifies a user of a direction of a prescribed subject detected in a video obtained by photographing the surround of the user in a wide range in a manner in which the user can intuitively recognize it.SOLUTION: An HMD 100 includes: an attachment section 101 attached to a user; a display unit 104 disposed at a position facing eyes of the user when the attachment section 101 is attached to the user; a whole circumference imaging unit 102 for taking an image of the periphery centering on the user; an angle measuring unit 103 measuring an angle of the attachment unit 101 to a horizontal direction; a video generation unit 105 for generating a panoramic video setting the angle measured by the angle measuring unit 103 from the video taken by the whole circumference imaging unit 102 as a center of a vertical direction; and a display control unit 106 maintains control to display the panoramic image generated by the video generation unit 105 on the display unit 104.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザ(使用者)が装着してその周囲を撮像する撮像装置とその制御方法、プログラム及び記憶媒体に関する。   The present invention relates to an imaging apparatus that is worn by a user (user) and images the surroundings, a control method thereof, a program, and a storage medium.

広視野角の範囲を撮像し、撮像された被写体に関する情報をユーザに提供する撮像システムが知られており、例えば、監視カメラ等の分野で用いられている。また、特許文献1には、デジタルカメラの上面に広視野角レンズ(パノラマレンズ)を取り付けて撮像される広視野撮像画像内に、ズーム画像の撮像範囲枠をズーム位置に応じて自動で変更し、表示することができる撮像装置が提案されている。更に、特許文献2には、馬蹄型の首輪の背当てに撮像部を取り付け、モニタと撮像部とを電気的に回路接続した後方監視装置が記載されている。   An imaging system that captures a wide viewing angle range and provides a user with information about the captured subject is known, and is used in the field of surveillance cameras, for example. In Patent Document 1, the imaging range frame of the zoom image is automatically changed according to the zoom position in the wide-field captured image captured by attaching a wide viewing angle lens (panoramic lens) to the upper surface of the digital camera. An imaging apparatus that can display the image has been proposed. Furthermore, Patent Document 2 describes a rear monitoring device in which an imaging unit is attached to a back of a horseshoe-shaped collar and the monitor and the imaging unit are electrically connected to each other.

特開2013−251783号公報JP 2013-251783 A 特開2004−180250号公報JP 2004-180250 A

上記特許文献1に記載された技術では、広視野角レンズがデジタルカメラの上面から上方に突出するように設けられる。そのため、撮像の際に後方の撮像範囲がユーザの頭等で遮られてしまいうことで、ユーザの周囲を十分に撮像することができないという問題がある。また、上記特許文献2に記載された技術では、被写体の方向をユーザが直感的に認識することができるようにユーザに通知することができないという問題がある。   In the technique described in Patent Document 1, the wide viewing angle lens is provided so as to protrude upward from the upper surface of the digital camera. For this reason, there is a problem in that the surrounding area of the user cannot be captured sufficiently because the rear imaging range is blocked by the user's head or the like during imaging. In addition, the technique described in Patent Document 2 has a problem that the user cannot be notified so that the user can intuitively recognize the direction of the subject.

本発明は、ユーザの周囲を広い範囲で撮像することができ、撮像した映像の中に検出された所定の被写体の方向をユーザが直感的に認識することができるようにユーザに通知することができる撮像装置を提供することを目的とする。   According to the present invention, the user can be imaged in a wide range, and the user can be notified so that the user can intuitively recognize the direction of the predetermined subject detected in the captured image. It is an object of the present invention to provide an imaging device that can be used.

本発明に係る撮像装置は、使用者に装着される装着部と、前記装着部が前記使用者に装着されたときに前記使用者の眼部と対向する位置に配置される表示部と、前記使用者を中心とした周囲の所定の範囲を撮像する撮像部と、前記装着部が水平方向に対して傾いた角度を計測する計測手段と、前記撮像部が撮像した映像から前記計測手段により計測された角度を垂直方向の中心としたパノラマ映像を生成する生成手段と、前記生成手段により生成されたパノラマ映像を前記表示部に表示するように制御する制御手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes a mounting unit mounted on a user, a display unit disposed at a position facing the user's eye when the mounting unit is mounted on the user, An imaging unit that captures a predetermined range around the user, a measuring unit that measures an angle at which the mounting unit is inclined with respect to a horizontal direction, and a measurement unit that measures the image captured by the imaging unit. Generating means for generating a panoramic image with the angle set as the center in the vertical direction, and control means for controlling the panoramic image generated by the generating means to be displayed on the display unit. .

本発明によれば、ユーザの周囲を広い範囲で撮像することができ、撮像した映像の中に検出された被写体の方向をユーザが直感的に認識することができるようにユーザに通知することができる。   According to the present invention, the user can be imaged in a wide range, and the user can be notified so that the user can intuitively recognize the direction of the subject detected in the captured image. it can.

本発明の第1実施形態に係るHMDの概略構成を説明する図である。It is a figure explaining schematic structure of HMD concerning a 1st embodiment of the present invention. HMDの使用態様の具体例を説明する図である。It is a figure explaining the specific example of the usage condition of HMD. HMDでの全周パノラマ映像の生成と表示制御のフローチャートである。It is a flowchart of generation | occurrence | production and display control of a perimeter panoramic image in HMD. 実空間から入射した光線が魚眼レンズを通過して撮像素子に投影される全周撮像モデルを説明する図である。It is a figure explaining the perimeter imaging model in which the light ray which entered from real space passes through a fisheye lens, and is projected on an image sensor. 魚眼レンズにより撮像される歪曲円形映像と、歪曲円形映像から生成される平面正則映像を模式的に示す図である。It is a figure which shows typically the distorted circular image | video imaged with a fisheye lens, and the plane regular image | video produced | generated from a distorted circular image | video. 本発明の第2実施形態に係るウエアラブルカメラの概略構成を説明する図である。It is a figure explaining schematic structure of the wearable camera which concerns on 2nd Embodiment of this invention. ウエアラブルカメラの使用態様を説明する図である。It is a figure explaining the usage condition of a wearable camera. ウエアラブルカメラとデジタルカメラからなる撮像システムでの写真撮影補助処理のフローチャートである。It is a flowchart of the photography assistance process in the imaging system which consists of a wearable camera and a digital camera.

以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。以下の説明では、本発明の第1実施形態に係る撮像装置の一例として、眼鏡型のヘッドマウントディスプレイ(以下「HMD」という)を取り上げて説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the following description, a spectacle-type head mounted display (hereinafter referred to as “HMD”) will be described as an example of the imaging apparatus according to the first embodiment of the present invention.

図1(a)は、本発明の第1実施形態に係るHMD100の概略構成を示すブロック図である。図1(b)は、HMD100の外観を示す斜視図である。HMD100は、装着部101、全周撮像部102、角度計測部103、表示部104、映像生成部105、表示制御部106、操作部107、CPU108、メモリ109、電源部110、通信部111、通知制御部112及び振動部113を有する。全周撮像部102は、第1撮像ユニット102a及び第2撮像ユニット102bを有する。振動部113は、第1振動子113a及び第2振動子113bを有する。   FIG. 1A is a block diagram showing a schematic configuration of the HMD 100 according to the first embodiment of the present invention. FIG. 1B is a perspective view showing the appearance of the HMD 100. The HMD 100 includes a mounting unit 101, an all-round imaging unit 102, an angle measurement unit 103, a display unit 104, a video generation unit 105, a display control unit 106, an operation unit 107, a CPU 108, a memory 109, a power supply unit 110, a communication unit 111, and a notification. A control unit 112 and a vibration unit 113 are included. The all-round imaging unit 102 includes a first imaging unit 102a and a second imaging unit 102b. The vibration unit 113 includes a first vibrator 113a and a second vibrator 113b.

装着部101は、眼鏡のフレームに対応する構造を有する。HMD100に眼鏡の構造を採用することで、ユーザ(HMD100の使用者)は容易に頭部の所定位置に着脱(装着/取り外し)することができ、また、違和感なく安定した装着状態を得ることができる。第1撮像ユニット102a及び第2撮像ユニット102bはそれぞれ、魚眼レンズと撮像素子を有する撮像ユニットであり、装着部101の一部である左右のテンプル部(つる)上の対向する位置に互いに反対方向(外側)を向くように配置されている。   The mounting unit 101 has a structure corresponding to a frame of glasses. By adopting the structure of glasses in the HMD 100, the user (user of the HMD 100) can easily attach and detach (attach / remove) to a predetermined position of the head, and obtain a stable wearing state without a sense of incongruity. it can. Each of the first imaging unit 102a and the second imaging unit 102b is an imaging unit having a fisheye lens and an imaging device, and in opposite directions on the left and right temple parts (vines) that are part of the mounting part 101 ( It is arranged to face the outside.

なお、魚眼レンズとは、全天(全視野が180度)を所定の大きさの像円(イメージサークル)内に写し込むことができるレンズである。魚眼レンズでは、撮像素子に対する像円の位置と大きさに応じて、撮像される映像のどこで全視野撮像が実現されるかが決まる。像円が撮像素子の短辺に収まる場合を全周魚眼と呼び、第1撮像ユニット102a及び第2撮像ユニット102bは、このような全周魚眼の撮像ユニットである。よって、HMD100では、HMD100を装着したユーザを中心とした全周囲の映像を全周撮像部102により取得することができる。よって、全周撮像部102は、少なくとも第1撮像ユニット102a及び第2撮像ユニット102bを有していればよいが、全周撮像部102を構成する撮像ユニットの数は2つに限定されるものではない。例えば、全周撮像部102は、ユーザの顔が向いている正面方向を撮像する撮像ユニットを有し、他の撮像ユニットと協働して全天周映像を取得する構成であってもよい。   The fisheye lens is a lens that can capture the entire sky (total field of view is 180 degrees) in an image circle (image circle) of a predetermined size. In the fisheye lens, where the full-field imaging is realized in the captured image is determined according to the position and size of the image circle with respect to the imaging element. The case where the image circle is within the short side of the image sensor is called an all-round fisheye, and the first imaging unit 102a and the second imaging unit 102b are such an all-round fisheye imaging unit. Therefore, in the HMD 100, the all-around imaging unit 102 can acquire an image of the entire periphery around the user wearing the HMD 100. Therefore, the all-round imaging unit 102 only needs to include at least the first imaging unit 102a and the second imaging unit 102b, but the number of imaging units constituting the all-around imaging unit 102 is limited to two. is not. For example, the omnidirectional imaging unit 102 may include an imaging unit that captures a front direction in which the user's face is facing, and may acquire a omnidirectional video in cooperation with other imaging units.

角度計測部103は、3軸ジャイロセンサ等を有し、HMD100を装着したユーザの頭部の水平方向に対する傾きに応じてHMD100が水平方向に対して傾いた角度(仰角、俯角)を計測する。角度計測部103は、例えば、ユーザの顔が水平方向を向いている状態では装着部101の水平方向に対する傾き角度が0°であることを検出するように、装着部101に配置されている。   The angle measurement unit 103 includes a three-axis gyro sensor or the like, and measures the angle (elevation angle, depression angle) of the HMD 100 with respect to the horizontal direction according to the inclination of the head of the user wearing the HMD 100 with respect to the horizontal direction. For example, the angle measurement unit 103 is arranged in the mounting unit 101 so as to detect that the tilt angle of the mounting unit 101 with respect to the horizontal direction is 0 ° in a state where the user's face is facing the horizontal direction.

表示部104は、例えば、半透過型を有する有機ELディスプレイ等であり、グラスシースルー表示が可能となるように、ユーザの眼部と対向するように装着部101(フレーム)に設けられたレンズ部の下側の領域に設けられている。ユーザは、直視する実風景と表示部104上のグラフィックスとを光学的に重ね合わせて見ることができる。なお、HMD100の正面方向を撮像する撮像ユニットを装着部101(フレーム)に設け、その撮像ユニットが取得する映像と他の撮像ユニットが取得する映像のグラフィックスとを電気的に重ね合わせて表示する構成(ビデオシースルー表示)としてもよい。この場合には、表示部104を、例えばTFT液晶ディスプレイ等の非透過型のディスプレイによって構成することができる。   The display unit 104 is, for example, a transflective organic EL display or the like, and a lens unit provided on the mounting unit 101 (frame) so as to face the user's eye so that glass see-through display is possible. It is provided in the lower area. The user can see the actual scenery directly viewed and the graphics on the display unit 104 optically superimposed. Note that an imaging unit that captures the front direction of the HMD 100 is provided in the mounting unit 101 (frame), and the video acquired by the imaging unit and the graphics of the video acquired by another imaging unit are electrically superimposed and displayed. It is good also as a structure (video see-through display). In this case, the display unit 104 can be configured by a non-transmissive display such as a TFT liquid crystal display.

映像生成部105は、第1撮像ユニット102aと第2撮像ユニット102bが撮像している映像から全天周映像を生成すると共に、角度計測部103により計測された角度情報に基づいて全周パノラマ映像を生成する。なお、全周パノラマ映像の生成方法については、後述する。表示制御部106は、表示部104での表示態様、例えば、ユーザが直視する実風景と映像生成部105が生成した全周パノラマ映像の重畳表示や、GUI(グラフィカルユーザインタフェース)の表示位置や表示タイミング、重ね合わせ程度等を制御する。操作部107は、HMD100に対するユーザの指示を受け付けるタッチパッドやスイッチ等であり、装着部101に設けられている。操作部107を操作することにより、HMD100の動作モードの設定や写真撮影処理等の各種処理を実行することができる。操作部107は、第1撮像ユニット102a及び第2撮像ユニット102bによりユーザの手指の動き(ジェスチャー)等を撮像し、撮像したジェスチャーによる操作入力機能を含む。   The video generation unit 105 generates an all-round image from the images captured by the first imaging unit 102a and the second imaging unit 102b, and at the same time, is based on the angle information measured by the angle measurement unit 103. Is generated. A method for generating the all-round panoramic video will be described later. The display control unit 106 displays the display mode on the display unit 104, for example, an overlaid display of a real landscape directly viewed by the user and an all-around panoramic video generated by the video generation unit 105, a display position or display of a GUI (Graphical User Interface) Control timing, degree of overlay, etc. The operation unit 107 is a touch pad, a switch, or the like that receives a user instruction to the HMD 100 and is provided in the mounting unit 101. By operating the operation unit 107, it is possible to execute various processes such as setting of the operation mode of the HMD 100 and a photography process. The operation unit 107 includes an operation input function based on a captured gesture by imaging a user's finger movement (gesture) or the like using the first imaging unit 102a and the second imaging unit 102b.

CPU108は、メモリ109に格納されたプログラムを実行してHMD100を構成する各部の動作を制御することにより、HMD100の全体的制御を行う。メモリ109は、揮発性領域と不揮発性領域を有している。メモリ109の揮発性領域は、不揮発性領域から読み出されたプログラム等が展開されるワーク領域と、全周撮像部102が撮像した映像データ等を一時的に記憶する領域を有する。メモリ109の不揮発性領域は、HMD100の動作制御に必要なプログラム、システム制御用の定数及び変数が記憶される領域と、全周撮像部102が撮像した映像データを記憶する領域を有する。   The CPU 108 performs overall control of the HMD 100 by executing the program stored in the memory 109 and controlling the operation of each unit constituting the HMD 100. The memory 109 has a volatile area and a nonvolatile area. The volatile area of the memory 109 has a work area where a program read from the non-volatile area is developed, and an area for temporarily storing video data captured by the all-round imaging unit 102. The non-volatile area of the memory 109 has an area for storing programs necessary for operation control of the HMD 100, constants and variables for system control, and an area for storing video data captured by the all-round imaging unit 102.

電源部110は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池であり、HMD100の各部に必要な電力を供給する。また、電源部110は、ユーザの操作その他の条件により電源のオン/オフを切り替える電源スイッチを備える。HMD100では、二次電池が用いられている場合には、非接触充電(非接触電力伝送)方式やACアダプタの接続により、二次電池の充電が可能な構成となっている。なお、HMD100がユーザの頭部に装着されているか否かを検知するセンサを装着部101(例えば、パッド(鼻当て)やモダン(先セル)の部分)に設け、頭部に装着されていない場合には電源がオンとならない構成としてもよい。   The power supply unit 110 is a primary battery such as an alkaline battery or a lithium battery, or a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and supplies necessary power to each part of the HMD 100. In addition, the power supply unit 110 includes a power switch that switches on / off the power according to a user operation or other conditions. In the HMD 100, when a secondary battery is used, the secondary battery can be charged by a non-contact charging (non-contact power transmission) method or an AC adapter connection. A sensor for detecting whether or not the HMD 100 is mounted on the user's head is provided in the mounting portion 101 (for example, a pad (nose pad) or a modern (front cell) portion) and is not mounted on the head. In some cases, the power supply may not be turned on.

通信部111は、CPU108による制御に従って外部機器との双方向通信を行う。外部機器としては、例えば、パーソナルコンピュータ(PC)やスマートフォン等の情報端末、通信機能を有するデジタルカメラ等の電子機器が挙げられるが、これらに限定されるものではない。通信方式は、特に限定されるものではないが、装着感を快適とするために無線方式を用いることが望ましい。振動部113が有する第1振動子113a及び第2振動子113bはそれぞれ、アクチュエータ、モータ、スピーカ等を有し、ユーザへ振動や音声で特定の方向を通知することができるように装着部101(左右のテンプル部)に配置されている。通知制御部112は、振動部113の動作を制御する。   The communication unit 111 performs bidirectional communication with an external device according to control by the CPU 108. Examples of the external device include, but are not limited to, an information device such as a personal computer (PC) and a smartphone, and an electronic device such as a digital camera having a communication function. The communication method is not particularly limited, but it is desirable to use a wireless method in order to make the wearing feeling comfortable. Each of the first vibrator 113a and the second vibrator 113b included in the vibration unit 113 includes an actuator, a motor, a speaker, and the like, and the mounting unit 101 (so that a specific direction can be notified to the user by vibration or voice. The left and right temple portions are arranged. The notification control unit 112 controls the operation of the vibration unit 113.

図2は、HMD100の使用態様の具体例を説明する図である。図2(a)は、HMD100を装着したユーザの顔が水平方向を向いている態様を示す図である。角度計測部103は、前述の通り、ユーザの顔が水平方向を向いているときのHMD100の姿勢では、仰角と俯角とが0度であることを示す出力を示すように調整されている。図2(b)は、図2(a)の状態で表示部104に表示される映像の表示態様を示す図である。表示部104には、ユーザの水平前方の実風景に重畳して、ユーザの水平方向の全周パノラマ映像が実風景の下側の領域に表示されている。   FIG. 2 is a diagram for explaining a specific example of the usage mode of the HMD 100. FIG. 2A is a diagram illustrating an aspect in which the face of the user wearing the HMD 100 faces in the horizontal direction. As described above, the angle measurement unit 103 is adjusted to output an output indicating that the elevation angle and the depression angle are 0 degrees in the posture of the HMD 100 when the user's face is in the horizontal direction. FIG. 2B is a diagram illustrating a display mode of an image displayed on the display unit 104 in the state of FIG. On the display unit 104, a panoramic image of the entire circumference of the user in the horizontal direction is displayed in a lower area of the actual landscape so as to be superimposed on the actual landscape in front of the user.

図2(c)は、HMD100を装着したユーザが顔を上向きに変えた態様を示す図である。図2(d)は、図2(c)の状態で表示部104に表示される映像の表示態様を示す図である。表示部104には、ユーザの上方の実風景に重畳して、ユーザの上方の全周パノラマ映像が実風景の下側の領域に表示されている。図2(e)は、HMD100を装着したユーザが顔を下向きに変えた態様を示す図である。図2(f)は、図2(e)の状態で表示部104に表示される映像の表示態様を示す図である。表示部104には、ユーザの下方の実風景に重畳して、ユーザの下方の全周パノラマ映像が実風景の下側の領域に表示されている。   FIG. 2C is a diagram illustrating a mode in which the user wearing the HMD 100 changes his face upward. FIG. 2D is a diagram illustrating a display mode of an image displayed on the display unit 104 in the state of FIG. On the display unit 104, a panoramic image of the entire circumference above the user is displayed in a lower area of the actual landscape so as to be superimposed on the actual landscape above the user. FIG. 2E is a diagram illustrating a mode in which the user wearing the HMD 100 changes his face downward. FIG. 2F is a diagram illustrating a display mode of an image displayed on the display unit 104 in the state of FIG. On the display unit 104, a panoramic image of the entire circumference of the lower part of the user is displayed in a region below the actual scenery so as to be superimposed on the actual scenery of the lower part of the user.

HMD100を装着したユーザは、ユーザの顔が向いている方向の実風景を視認しながら、仰角又は俯角を垂直方向(鉛直方向)の中心とする全周パノラマ映像を併せて視認することができる。このとき、全周パノラマ映像は、全周パノラマ映像の左右中心がユーザの顔が向いている方向と略一致するように表示部104に表示される。よって、ユーザは、全周パノラマ映像の中の被写体が、ユーザの顔が向いている方向に対して右側にあるのか左側にあるのか等、どの方向にあるのかを容易に把握することができる。   A user wearing the HMD 100 can also view an all-around panoramic image with the elevation angle or depression angle as the center in the vertical direction (vertical direction) while visually recognizing the actual landscape in the direction in which the user's face is facing. At this time, the all-round panoramic image is displayed on the display unit 104 so that the right and left center of the all-round panoramic image substantially coincides with the direction in which the user's face is facing. Therefore, the user can easily grasp in which direction the subject in the all-around panoramic image is on the right side or the left side with respect to the direction in which the user's face is facing.

例えば、人は、歩行しているときには、仰角と俯角が0度の向き(略水平)を向いていることが多い。その際に、安全上の注意を払うべき自動車やバイク、他の歩行者等も、概ね、仰角と俯角が0度の方向(略水平)から接近してくる。このような状況においてユーザがHMD100を装着していれば、前方以外の方向(後方、右側、左側)から自動車等がユーザに接近したとしても、接近する自動車等が全周パノラマ映像に表示されるため、ユーザは早期の段階から安全上の注意を払うことができる。このとき、HMD100では、左右のテンプル部のそれぞれに、第1振動子113aと第2振動子113bが設けられているため、左右で異なる振動(音響)を発生させてユーザに伝達することで、ユーザに方向情報を通知することができる。例えば、特定の被写体(例えば、自動車)が接近する方向を振動や音声によりユーザに通知することができる。   For example, when a person is walking, the elevation angle and the depression angle are often oriented in a direction of 0 degrees (substantially horizontal). At that time, automobiles, motorcycles, other pedestrians and the like who should pay attention to safety generally approach from a direction where the elevation angle and depression angle are 0 degrees (substantially horizontal). If the user wears the HMD 100 in such a situation, even if the car or the like approaches the user from a direction other than the front (rear, right side, left side), the approaching car or the like is displayed in the panoramic video. Therefore, the user can pay attention to safety from an early stage. At this time, in the HMD 100, since the first vibrator 113a and the second vibrator 113b are provided in each of the left and right temple parts, different vibrations (acoustics) are generated on the left and right sides and transmitted to the user. Direction information can be notified to the user. For example, the user can be notified of the direction in which a specific subject (for example, a car) approaches by vibration or voice.

また、例えば、ユーザが顔を所定角度上向きにして前方の木に止っていた鳥を観察していたときに、その鳥が飛び立ったとする。そこで、ユーザが顔の向きを変えて鳥を目で追ったものの、前方の視野から見失ってしまったとする。このとき、HMD100の表示部104には、ユーザを中心として仰角と略同角度上方の風景を写した全周パノラマ映像が表示されており、表示された全周パノラマ映像の中に飛び立った鳥が表示される確率は高い。よって、ユーザは、全周パノラマ映像に基づいて頭部の向きを変えることで、目で追っていた鳥を前方の実風景の中に捉えることが可能となる。   Further, for example, when the user is observing a bird that has stopped at the front tree with the face facing upward at a predetermined angle, the bird flies away. Therefore, it is assumed that the user changes his face and follows the bird with his eyes, but has lost his sight from the forward visual field. At this time, the display unit 104 of the HMD 100 displays an all-around panoramic image that captures a landscape that is approximately the same angle as the elevation angle with the user as the center, and a bird that flies in the displayed all-around panorama image. The probability of being displayed is high. Therefore, the user can capture the bird chased by his eyes in the real scenery ahead by changing the direction of the head based on the panoramic video of the entire circumference.

このように、ユーザは、HMD100を装着することによって、自身の周囲にある被写体がどの方向にあるのかを容易に知ることができため、安全上の注意を払う行動や実際に視認したい被写体の存在する方向に顔を向ける行動等を無駄なく取ることが可能になる。   In this way, by wearing the HMD 100, the user can easily know in which direction the subject around him / her is, so that the behavior to pay attention to safety and the presence of the subject to be actually viewed are present. It is possible to take an action of turning the face in the direction to be done without waste.

次に、HMD100を装着したユーザの顔が向いている方向の仰角又は俯角を検出し、検出された仰角又は俯角を垂直方向の中心とする全周パノラマ映像を生成して表示部104に表示する制御のフローについて説明する。図3は、HMD100における全周パノラマ映像の生成と、生成した全周パノラマ映像の表示部104への表示制御のフローチャートである。図3のフローチャートの各種処理は、CPU108が、メモリ109の不揮発性領域に格納されたプログラムをメモリ109内の揮発性領域(ワーク領域)に展開し、HMD100を構成する各部の動作を制御することにより実現される。   Next, the elevation angle or depression angle in the direction in which the face of the user wearing the HMD 100 is facing is detected, and an all-round panoramic image having the detected elevation angle or depression angle as the center in the vertical direction is generated and displayed on the display unit 104. A control flow will be described. FIG. 3 is a flowchart of the generation of the all-round panoramic video in the HMD 100 and the display control on the display unit 104 of the generated all-round panoramic video. 3, the CPU 108 expands the program stored in the nonvolatile area of the memory 109 to the volatile area (work area) in the memory 109 and controls the operation of each unit constituting the HMD 100. It is realized by.

HMD100の電源スイッチがオンに操作されることによって、HMD100での処理が開始される。ステップS301においてCPU108は、全周撮像部102を制御して、ユーザを中心とした周囲の撮像を開始する。ステップS302においてCPU108は、角度計測部103を制御して、ユーザの顔が向いている方向の俯角及び仰角(HMD100の水平方向に対する傾き角度)を計測する。ステップS303においてCPU108は、映像生成部105を制御して、ステップS301で全周撮像部102により撮像された映像とステップS302で計測された仰角又は俯角の角度θに基づいて、角度θを垂直方向の中心とする全周パノラマ映像を生成する。なお、全周パノラマ映像の生成方法については後述する。   When the power switch of the HMD 100 is turned on, processing in the HMD 100 is started. In step S301, the CPU 108 controls the all-round imaging unit 102 to start imaging around the user. In step S <b> 302, the CPU 108 controls the angle measurement unit 103 to measure the depression angle and elevation angle (inclination angle with respect to the horizontal direction of the HMD 100) in the direction in which the user's face is facing. In step S303, the CPU 108 controls the video generation unit 105 to set the angle θ in the vertical direction based on the video imaged by the all-round imaging unit 102 in step S301 and the elevation angle or depression angle θ measured in step S302. A panoramic video with the entire center is generated. A method for generating the all-round panoramic video will be described later.

ステップS304においてCPU108は、表示制御部106を制御して、ステップS303で生成した全周パノラマ映像を表示部104に表示する。ステップS305においてCPU108は、ユーザによる所定の終了条件が満たされたか否かを判定する。所定の終了条件とは、例えば、電源スイッチのオフ操作等が挙げられる。CPU108は、終了条件が満たされたと判定した場合(S305でYES)、本処理を終了させ、終了条件が満たされていないと判定した場合(S305でNO)、処理をステップS306へ進める。ステップS306においてCPU108は、ユーザの顔が向いている方向の俯角及び仰角が変わったか否かを判定する。CPU108は、俯角及び仰角が変わったと判定した場合(S306でYES)、処理をステップS302へ戻し、俯角及び仰角が変わっていないと判定した場合(S306でNO)、処理をステップS304へ戻す。   In step S <b> 304, the CPU 108 controls the display control unit 106 to display the all-around panoramic image generated in step S <b> 303 on the display unit 104. In step S305, the CPU 108 determines whether or not a predetermined end condition by the user is satisfied. The predetermined end condition includes, for example, an operation of turning off a power switch. If the CPU 108 determines that the end condition is satisfied (YES in S305), the CPU 108 ends the process. If the CPU 108 determines that the end condition is not satisfied (NO in S305), the process proceeds to step S306. In step S306, the CPU 108 determines whether the depression angle and elevation angle in the direction in which the user's face is facing have changed. If CPU 108 determines that the depression angle and elevation angle have changed (YES in S306), the process returns to step S302. If CPU 108 determines that the depression angle and elevation angle have not changed (NO in S306), the process returns to step S304.

次に、ステップS303において所定の角度θ(仰角又は俯角)を垂直方向中心とする全周パノラマ映像を生成する処理について説明する。図4は、第1撮像ユニット102a及び第2撮像ユニット102bのそれぞれでの撮像モデルを説明する図であり、実空間から入射した光線が魚眼レンズを通過して2次元の撮像素子に投影される全周撮像モデルを説明する図である。図5(a)は、魚眼レンズにより撮像される歪曲円形映像を模式的に示す図である。図5(b)は、図5(a)の歪曲円形映像から生成される平面正則映像を模式的に示す図である。   Next, a process of generating an all-round panoramic image having a predetermined angle θ (elevation angle or depression angle) as a vertical center in step S303 will be described. FIG. 4 is a diagram for explaining an imaging model in each of the first imaging unit 102a and the second imaging unit 102b. All rays incident from the real space pass through the fisheye lens and are projected onto the two-dimensional imaging element. It is a figure explaining a circumference imaging model. FIG. 5A is a diagram schematically showing a distorted circular image captured by a fisheye lens. FIG. 5B is a diagram schematically showing a planar regular image generated from the distorted circular image in FIG.

ここでは、撮像素子の撮像面をXY平面とし、魚眼レンズの中心軸をZ軸とする。また、実空間から魚眼レンズへ入射した光線は、球面HでZ軸と平行となり、撮像素子の撮像面(XY平面)に投影される。よって、魚眼レンズにより全周が撮像されてXY平面上に結像する映像は、図5(a)に示されるような歪曲円形映像となる。図4に示すベクトルnは、仰角(又は俯角)がθ度での視線ベクトルであり、ベクトルnと直交するUV平面上に方位角φ=0度〜180度の範囲で結像する平面正則映像Tは、魚眼レンズにより全周が撮像された映像の仰角又は俯角がθ度でのパノラマ映像である。この映像は、図5(b)のような平面正則映像(歪みのない映像)となる。   Here, the imaging surface of the imaging device is the XY plane, and the central axis of the fisheye lens is the Z axis. In addition, a light ray that has entered the fisheye lens from real space is parallel to the Z axis on the spherical surface H, and is projected onto the imaging surface (XY plane) of the imaging device. Therefore, an image in which the entire circumference is imaged by the fisheye lens and imaged on the XY plane is a distorted circular image as shown in FIG. A vector n shown in FIG. 4 is a line-of-sight vector with an elevation angle (or depression angle) of θ degrees, and is a planar regular image that is imaged in the range of azimuth angle φ = 0 degrees to 180 degrees on a UV plane orthogonal to the vector n. T is a panoramic image in which the elevation angle or the depression angle of the image of which the entire circumference is imaged by the fisheye lens is θ degrees. This image is a planar regular image (image without distortion) as shown in FIG.

魚眼レンズを有する全周撮像部102により撮像された映像からパノラマ映像を生成する処理とは、図5(a)に示したような歪曲円形映像から図5(b)に示したような平面正則映像を生成する処理である。つまり、UV平面上の点Ti(ui,vi)に位置する画素の画素値を、XY平面上の点Si(xi,yi)に位置する画素(二次元XY直交座標系上の歪曲円形映像S内の画素)の画素値に基づいて決定する。そのためには、UV平面を定める二次元UV直交座標系上の点(ui,vi)と二次元XY直交座標系上の点(xi,yi)との間の対応関係式が必要になる。そして、その対応関係式を用いれば、平面正則映像T上の任意の点は、歪曲円形映像Sのいずれかの点に対応づけられることになり、歪曲円形映像を平面正則映像に変換することができる。   The process of generating a panoramic image from an image captured by the omnidirectional imaging unit 102 having a fisheye lens is a planar regular image as shown in FIG. 5B from a distorted circular image as shown in FIG. Is a process for generating That is, the pixel value of the pixel located at the point Ti (ui, vi) on the UV plane is changed from the pixel value located at the point Si (xi, yi) on the XY plane (a distorted circular image S on the two-dimensional XY orthogonal coordinate system). The pixel value is determined on the basis of the pixel value of the inner pixel). For that purpose, a correspondence relation between a point (ui, vi) on the two-dimensional UV orthogonal coordinate system defining the UV plane and a point (xi, yi) on the two-dimensional XY orthogonal coordinate system is necessary. Then, using the corresponding relational expression, an arbitrary point on the planar regular image T is associated with any point of the distorted circular image S, and the distorted circular image can be converted into a planar regular image. it can.

これら2点間の対応関係式は、下記式1,2で表される。但し、下記式1,2において、w=m×Rであり、Rは歪曲円形映像Sの半径であり、mは座標値u,vの画素数と座標値x,yの画素数の関係を示すパラメータであり、mが大きくなるにしたがって平面正則映像Tの画素数は大きくなる。なお、後述の通り、一方の撮像ユニットによる平面正則映像Tは、他方の撮像ユニットによる映像とつなぎ合わされて表示部104上に表示される。そのため、mの値は、最終的には表示部104上にどのような画素数で表示されるかによって決定される。   Corresponding relational expressions between these two points are expressed by the following expressions 1 and 2. However, in the following formulas 1 and 2, w = m × R, R is the radius of the distorted circular image S, and m is the relationship between the number of pixels of coordinate values u and v and the number of pixels of coordinate values x and y. The number of pixels of the planar regular image T increases as m increases. Note that, as will be described later, the planar regular image T by one imaging unit is displayed on the display unit 104 by being joined with the image by the other imaging unit. Therefore, the value of m is finally determined by the number of pixels displayed on the display unit 104.

映像生成部105は、まず、第1撮像ユニット102a及び第2撮像ユニット102bがそれぞれ撮像した映像から平面映像を生成する。続いて、映像生成部105は、生成した平面映像を横方向(各平面映像のU軸方向)につなぎ合わせることで、ユーザを中心としたユーザの周囲の全周パノラマ映像を生成する。映像のつなぎ合わせには、例えば、各映像のつなぎ位置近傍の画素を比較するパターンマッチング技術等の周知の技術を用いることができる。その際、全周パノラマ映像は、表示部104上に表示されたときに左右中心がユーザの顔が向いている方向と略一致していることが必要である。第1撮像ユニット102a及び第2撮像ユニット102bは、HMD100がユーザに装着された状態では、ユーザの頭部を左右から挟むように配置される。この場合、左側の第1撮像ユニット102aによる平面映像が左側に、右側の第2撮像ユニット102bによる平面映像が右側になるように、各平面映像がつなぎ合わされる。   First, the image generation unit 105 generates a planar image from the images captured by the first imaging unit 102a and the second imaging unit 102b. Subsequently, the video generation unit 105 connects the generated planar images in the horizontal direction (the U-axis direction of each planar image) to generate an all-round panoramic image around the user with the user at the center. For the joining of images, for example, a known technique such as a pattern matching technique for comparing pixels in the vicinity of the joining position of each image can be used. At that time, the panoramic image of the entire circumference needs to be substantially coincident with the direction in which the user's face faces when the left and right centers are displayed on the display unit 104. The first imaging unit 102a and the second imaging unit 102b are arranged so as to sandwich the user's head from the left and right when the HMD 100 is mounted on the user. In this case, the respective planar images are connected such that the planar image by the left first imaging unit 102a is on the left side and the planar image by the right second imaging unit 102b is on the right side.

なお、魚眼レンズを備える複数の撮像ユニットを得られる各平面映像をつなぎ合わせる際に重複領域が生じる場合には、各撮像ユニットの配置に応じて対応する各平面映像の左右端よりも内側につなぎ目を設定してもよい。また、上述したHMD100とは異なり、ユーザの顔が向いている方向(ユーザの前方)とその逆方向(ユーザの後方)を撮像するように撮像ユニットが配置されているHMDが想定される。この場合には、ユーザの後方を撮像する撮像ユニットから生成された平面映像を左右に分割し、その左側部分を全周パノラマ映像の右側端部に、その右側部分を全周パノラマ映像の左側端部にそれぞれつなぎ合わせばよい。   In addition, when an overlap area is generated when connecting each plane image that can obtain a plurality of imaging units including a fisheye lens, a joint is formed on the inner side of the left and right ends of each corresponding plane image according to the arrangement of each imaging unit. It may be set. In addition, unlike the above-described HMD 100, an HMD in which an imaging unit is arranged so as to capture the direction in which the user's face is facing (front of the user) and the opposite direction (back of the user) is assumed. In this case, the plane image generated from the imaging unit that captures the rear of the user is divided into left and right parts, the left part thereof being the right end part of the entire panoramic video, and the right part thereof being the left end of the entire panoramic picture. Connect to each part.

以上の説明の通り、ユーザの頭部に装着される装着部101に全周撮像部102を設けたHMD100は、着脱が容易であり、安定した装着が可能である。また、ユーザは、ユーザの周囲の全周を撮像することにより生成される全周パノラマ映像を視認することができるため、周囲の被写体の方向を直感的に認識することができる。更に、HMD100では、全周撮像部102により撮像された映像からユーザの向く方向の仰角又は俯角を垂直方向の中心とする全周パノラマ映像が生成され、生成され全周パノラマ映像がユーザの顔が向いている方向の実風景に重畳表示される。これにより、ユーザは、自身の顔が向く方向以外の方向に被写体があったときも、迷わずに顔の向きを変えてその被写体を速やかに視野の中に捉えることが可能となる。更に、全周パノラマ映像の左右中心がユーザの顔が向いている方向と略一致するように表示されることで、ユーザは、ユーザの顔が向いている方向に対して被写体が全周パノラマ映像のどの方向にあるのかを容易に把握することができる。   As described above, the HMD 100 in which the entire periphery imaging unit 102 is provided on the mounting unit 101 mounted on the user's head is easy to attach and detach, and can be stably mounted. In addition, since the user can visually recognize the entire panoramic image generated by imaging the entire periphery of the user, the user can intuitively recognize the direction of the surrounding subject. Further, in the HMD 100, an all-round panoramic image having the elevation angle or depression angle in the direction facing the user as the center in the vertical direction is generated from the image captured by the all-round imaging unit 102, and the generated all-round panoramic image is the face of the user. It is displayed superimposed on the actual landscape in the direction you are facing. Thereby, even when the user has a subject in a direction other than the direction in which his / her face is directed, the user can quickly change the direction of the face without hesitation and quickly capture the subject in the field of view. Furthermore, the left and right center of the entire panoramic image is displayed so as to substantially match the direction in which the user's face is facing, so that the user can view the panoramic image of the entire periphery in the direction in which the user's face is facing. It is possible to easily grasp which direction of the head.

なお、HMD100では、ユーザの操作により被写体を特定し、特定された被写体の位置と方向の少なくとも一方を示す指標を、表示部104に表示された全周パノラマ映像に重畳させて表示することも可能である。被写体の特定には、デジタルカメラ等の撮像装置において実用されている、撮像設定条件を動く被写体に対して合わせ続ける「動体追尾」と呼ばれる技術等を用いることができる。その場合、ユーザの操作により特定された被写体の色差情報等の特徴情報をメモリ109に記憶し、撮像している映像の中からその特徴情報を有する領域を検出し、検出された領域に四角枠等の指標をGUIとして表示すればよい。これにより、ユーザは、特定の被写体の位置及び方向をより容易に認識することが可能となる。   The HMD 100 can also identify a subject by a user operation and display an index indicating at least one of the position and direction of the identified subject superimposed on the entire panoramic video displayed on the display unit 104. It is. To identify the subject, a technique called “moving object tracking” that is used in an imaging apparatus such as a digital camera and keeps the imaging setting condition for the moving subject can be used. In that case, feature information such as color difference information of the subject specified by the user's operation is stored in the memory 109, a region having the feature information is detected from the captured image, and a square frame is detected in the detected region. Or the like may be displayed as a GUI. As a result, the user can more easily recognize the position and direction of a specific subject.

被写体が特定されている場合には、表示部104への全周パノラマ映像の表示のオン/オフが、特定された被写体が実風景内にある場合とない場合とで切り換えられるようにしてもよい。つまり、特定された被写体が実風景内にある場合には、ユーザはその被写体を全周パノラマ映像で確認する必要はないため、全周パノラマ映像の表示はオフに制御される。一方、全周パノラマ映像で確認したい場合とは、その被写体が実風景内にない場合であるため、この場合には全周パノラマ映像の表示はオンに制御される。特定された被写体が実風景内にあるか否かは、全周パノラマ映像から検知することができる。つまり、全周パノラマ映像の全範囲においてユーザの顔が向いている方向は特定されている。そこで、全周パノラマ映像のうちユーザによる直視が可能と判断される方向の一定の範囲内に特定された被写体にあれば、特定された被写体が実風景内にあると判断することができる。HMD100が、ユーザの正面の実風景を撮像可能な別の撮像ユニットを備えている場合には、この撮像ユニットが撮像する映像の中に特定された被写体があるか否かを判定することによっても、特定された被写体が実風景内にあるか否かを判断することができる。   When the subject is specified, on / off of the display of the all-around panoramic video on the display unit 104 may be switched between when the specified subject is in the actual landscape and when it is not. . That is, when the specified subject is in the actual landscape, the user does not need to confirm the subject with the all-around panorama image, and therefore the display of the all-around panorama image is controlled to be off. On the other hand, the case where the user wants to confirm the panoramic video image is the case where the subject is not in the actual landscape. In this case, the display of the panoramic video image is controlled to be on. Whether or not the specified subject is in the real scene can be detected from the panoramic video of the entire circumference. That is, the direction in which the user's face is facing is specified in the entire range of the entire panoramic video. Therefore, if the subject is specified within a certain range in the direction in which it is determined that direct viewing by the user is possible in the all-round panoramic video, it can be determined that the specified subject is in the actual landscape. When the HMD 100 includes another imaging unit that can capture a real scene in front of the user, it is also possible to determine whether or not there is a specified subject in the image captured by the imaging unit. It is possible to determine whether or not the specified subject is in the actual landscape.

HMD100がユーザの正面の実風景を撮像可能な別の撮像ユニットを備えている場合には、正面の実風景内の被写体を写真として撮像しようとするときに表示部104に全周パノラマ映像が表示されていると、正確な構図の確認が妨げられるおそれがある。そこで、正面の実風景を撮像するモードにHMD100が設定されている場合には、全周パノラマ映像の表示はオフに制御されることが望ましい。このように全周パノラマ映像の表示が使用状況に応じてオフに制御されることで、消費電力を低減することができる効果も得られる。   When the HMD 100 includes another imaging unit that can capture a real landscape in front of the user, the panoramic video is displayed on the display unit 104 when the subject in the front real landscape is to be captured as a photograph. If this is done, the confirmation of the correct composition may be hindered. Therefore, when the HMD 100 is set to the mode for capturing a real landscape in front, it is desirable that the display of the panoramic image of the entire circumference is controlled to be off. As described above, the display of the all-round panoramic image is controlled to be turned off according to the use situation, so that an effect of reducing power consumption can be obtained.

次に、本発明の第2実施形態について説明する。ここでは、第2実施形態に係る撮像装置の一例として、頸部に掛けて使用するウエアラブルカメラを取り上げる。図6は、ウエアラブルカメラ600の外観斜視図である。ウエアラブルカメラ600は、輪の一部が切り欠かれた弧状又は略U字形状の首掛け部601と、首掛け部601の外周面に設けられた第1撮像ユニット602a、第2撮像ユニット602b及び第3撮像ユニット602cを含む全周撮像部を有する。また、ウエアラブルカメラ600は、HMD100が備える角度計測部103、映像生成部105、表示制御部106、操作部107、CPU108、メモリ109、電源部110、通信部111、通知制御部112及び振動部113と同等の各部を有する。これら各部は、首掛け部601の内部に実装されており、外観に現れていないために図6では不図示となっている。   Next, a second embodiment of the present invention will be described. Here, as an example of the imaging apparatus according to the second embodiment, a wearable camera used on the neck is taken up. FIG. 6 is an external perspective view of wearable camera 600. The wearable camera 600 includes an arc-shaped or substantially U-shaped neck hanging portion 601 in which a part of a ring is cut off, a first imaging unit 602a, a second imaging unit 602b, and an outer peripheral surface of the neck hanging portion 601. It has an all-round imaging unit including a third imaging unit 602c. The wearable camera 600 includes an angle measurement unit 103, an image generation unit 105, a display control unit 106, an operation unit 107, a CPU 108, a memory 109, a power supply unit 110, a communication unit 111, a notification control unit 112, and a vibration unit 113. Each part is equivalent to These parts are mounted in the neck portion 601 and are not shown in FIG.

首掛け部601は、全周撮像部、表示制御部106や振動部113を保持する保持部材であり、例えば、弾性を有する樹脂等からなり、ユーザが頸部に掛けて装着した際に(図7参照)、良好な装着感が得られるように構成されている。第1撮像ユニット602a〜第3撮像ユニット602cはそれぞれ、魚眼レンズ及び撮像素子からなる全周魚眼撮像ユニットである。角度計測部103は水平方向を検出することができ、映像生成部105は、角度計測部103が検出した水平方向を基準として、第1実施形態に係るHMD100と同様にして、ユーザの周囲の全周パノラマ映像を生成することができる。なお、全周撮像部が有する撮像ユニットの数は、3つに限定されるものではない。   The neck hanging portion 601 is a holding member that holds the entire circumference imaging portion, the display control portion 106, and the vibration portion 113. For example, the neck hanging portion 601 is made of an elastic resin or the like and is worn when the user hangs on the neck (see FIG. 7), and is configured to obtain a good wearing feeling. The first imaging unit 602a to the third imaging unit 602c are all-round fisheye imaging units each including a fisheye lens and an imaging element. The angle measurement unit 103 can detect the horizontal direction, and the video generation unit 105 can detect all of the surroundings of the user in the same manner as the HMD 100 according to the first embodiment, using the horizontal direction detected by the angle measurement unit 103 as a reference. A circumferential panoramic image can be generated. Note that the number of imaging units included in the all-round imaging unit is not limited to three.

図7(a)は、ウエアラブルカメラ600の使用態様の一例を示す図である。ウエアラブルカメラ600は、単独でユーザに装着されている。ウエアラブルカメラ600は、首掛け部601をユーザの頸部に掛けるようにして装着されるため、着脱が容易であり、また、安定して装着することが可能となっている。また、ウエアラブルカメラ600は、HMD100のように頭部に装着する場合と同様に、ユーザの視点に近い位置で、ユーザを中心として水平方向を全周にわたって撮像することができる。更に、HMD100と同様に、ユーザの頸部まわりに配された振動子(スピーカを含む)により、ユーザに対して左右で異なる振動や音声を伝えることで、ユーザに方向情報を通知することもできる。   FIG. 7A shows an example of how the wearable camera 600 is used. Wearable camera 600 is worn by the user alone. The wearable camera 600 is mounted so that the neck portion 601 is hung on the user's neck, so that the wearable camera 600 can be easily attached and detached and can be stably mounted. The wearable camera 600 can image the entire horizontal direction around the user at a position close to the user's viewpoint, as in the case of being worn on the head like the HMD 100. Further, similarly to the HMD 100, the vibrator (including a speaker) arranged around the user's neck can be used to notify the user of direction information by transmitting different vibrations and sounds on the left and right. .

ウエアラブルカメラ600は、ユーザに装着されている間、ユーザを中心とした水平方向の全周囲を撮像し、撮像した映像をメモリに記憶している。なお、首掛け部601の内側等に接触センサ(人感センサ)等を設け、ウエアラブルカメラ600がユーザに装着されていることを接触センサが検知している間のみ、撮像を行って映像を記憶するようにしてもよい。これにより、不要な映像を記憶しなくなることで、使用されるメモリ容量や電力消費を節約することができる。また、ウエアラブルカメラ600がユーザに装着されていることを接触センサが検知しなくなってから所定時間が経過した後に映像の記憶を終了するようにしてもよい。これにより、事故等の原因でユーザの意志に反して非装着状態となった場合に、そのときの状況を記憶することができる。   While being worn by the user, the wearable camera 600 captures the entire circumference in the horizontal direction centered on the user and stores the captured image in a memory. In addition, a contact sensor (human sensor) or the like is provided on the inside of the neck portion 601 and the like is captured and the video is stored only while the contact sensor detects that the wearable camera 600 is worn by the user. You may make it do. As a result, unnecessary memory is not stored, so that the memory capacity used and power consumption can be saved. Alternatively, the video storage may be terminated after a predetermined time has elapsed since the contact sensor no longer detects that the wearable camera 600 is worn by the user. Thereby, when it becomes a non-wearing state contrary to a user's will by the cause of an accident etc., the condition at that time can be memorize | stored.

ウエアラブルカメラ600のCPUは、ユーザの全周囲を撮像した映像の中に所定の条件に適合するオブジェクト(人、物)を検出したときには、ユーザに対して振動や音声でその方向を通知する。所定の条件の一例として、「ユーザに接近するオブジェクトがあったとき」が挙げられ、例えば、図7(a)に示すように他人701が接近している状況は、この条件に当てはまる。このような所定の条件(オブジェクト)は、ユーザ操作によって設定することができ、メモリに保存することができる。なお、ウエアラブルカメラ600自体は、ディスプレイを備えていない。そのため、所定の条件の設定は、ウエアラブルカメラ600にディスプレイが接続された状態で行われる。ウエアラブルカメラ600とディスプレイとの接続は、後述するウエアラブルカメラ600とデジタルカメラ711との接続と同様に行うことができる。なお、首掛け部601に小型のディスプレイを設け、そのディスプレイで各種の条件を設定可能な構成としてもよい。   When the CPU of the wearable camera 600 detects an object (person, thing) that meets a predetermined condition in a video obtained by imaging the entire periphery of the user, the CPU notifies the user of the direction by vibration or voice. An example of the predetermined condition is “when there is an object approaching the user”. For example, a situation where another person 701 is approaching as shown in FIG. 7A applies to this condition. Such a predetermined condition (object) can be set by a user operation and can be stored in a memory. Wearable camera 600 itself does not include a display. Therefore, the setting of the predetermined condition is performed in a state where the display is connected to the wearable camera 600. The wearable camera 600 and the display can be connected in the same manner as the connection between the wearable camera 600 and the digital camera 711 described later. In addition, it is good also as a structure which can provide a small display in the neck part 601 and can set various conditions with the display.

CPUは、全周撮像部により撮像された映像を数フレームにわたって解析し、フレーム間の画像で変化している領域の大きさや変化の速度が所定の閾値を超えたものについて、変化している領域に対応する方向を振動や音によりユーザに通知する。その際、振動や音の大きさ、振動数、振動パターン等を、変化している領域の大きさや速度等によって異ならせてもよい。   The CPU analyzes the video imaged by the all-round imaging unit over several frames, and the area where the size and speed of change of the area changing in the image between the frames exceeds a predetermined threshold are changing areas. The direction corresponding to is notified to the user by vibration or sound. At that time, the magnitude of vibration or sound, the number of vibrations, the vibration pattern, and the like may be varied depending on the size and speed of the changing area.

また、所定の条件の別の例として、「特定のオブジェクトが現れたとき」が挙げられる。この場合、予め、「特定のオブジェクト」の特徴データをメモリの不揮発性領域に記憶させておく。CPUは、ユーザの全周囲を撮像した映像の中に新たなオブジェクトが現れたときに、新たなオブジェクトの特徴データと特定のオブジェクトの特徴データとを比較し、所定の閾値(割合)以上で合致したときに、「特定のオブジェクトが現れた」と判定する。CPUは、新たなオブジェクトの方向を振動や音によりユーザに通知する。なお、特定のオブジェクトの特徴データは、通信部を介して外部サーバ等に記憶されていてもよい。また、特徴データは、ニューラルネットワーク(Neural Network)その他の所謂「機械学習」の方法等により、随時、学習更新されるものであってもよい。   Another example of the predetermined condition is “when a specific object appears”. In this case, feature data of “specific object” is stored in advance in a nonvolatile area of the memory. The CPU compares the feature data of the new object with the feature data of the specific object when a new object appears in the video that captures the entire periphery of the user, and matches at a predetermined threshold (ratio) or more. It is determined that “a specific object has appeared”. The CPU notifies the user of the direction of the new object by vibration or sound. Note that feature data of a specific object may be stored in an external server or the like via a communication unit. Further, the feature data may be updated as needed by a neural network or other so-called “machine learning” methods.

図7(b)は、ウエアラブルカメラ600の使用態様の別の例を示す図であり、図6(b)と対応している。首掛け部601の両先端よりコード710が延びており、他の撮像装置であるデジタルカメラ711に連結されている。コード710は、首掛け部601に設けられた不図示のコード繰り出し/巻き取り機構によって、首掛け部601からの繰り出しと首掛け部601への収納が可能となっている。コード繰り出し/巻き取り機構は、コード710が引き出された状態でコード710をロックするロック機構、コード710のロック状態を解除するロック解除機構、コード710の巻き取りを行うための付勢機構を備える。ウエアラブルカメラ600は、図7(a)の使用態様と図7(b)の使用態様とを切り換えて使用することができるようになっている。   FIG. 7B is a diagram showing another example of usage of the wearable camera 600, and corresponds to FIG. 6B. A cord 710 extends from both ends of the neck portion 601 and is connected to a digital camera 711 which is another imaging device. The cord 710 can be fed from the neck hook portion 601 and stored in the neck hook portion 601 by a cord feeding / winding mechanism (not shown) provided in the neck hook portion 601. The cord feeding / winding mechanism includes a lock mechanism that locks the cord 710 when the cord 710 is pulled out, a lock release mechanism that unlocks the cord 710, and a biasing mechanism that winds the cord 710. . The wearable camera 600 can be used by switching between the usage mode shown in FIG. 7A and the usage mode shown in FIG. 7B.

ウエアラブルカメラ600とデジタルカメラ711とは、例えば、無線通信による双方向通信が可能となっており、デジタルカメラ711が備えるディスプレイや電子ビューファインダをウエアラブルカメラ600の表示部として使用することができる。また、デジタルカメラ711において撮影光軸が水平方向となす仰角又は俯角を計測し、計測された仰角又は俯角を垂直方向の中心とする全周パノラマ映像をウエアラブルカメラ600で生成することも可能である。生成された全周パノラマ映像は、デジタルカメラ711が備えるディスプレイや電子ビューファインダに、実風景に重畳させて表示することができ、その際の表示態様は図2(b)等と同様とすることができる。よって、例えば、ユーザが撮像しようとしている被写体がデジタルカメラ711の撮像画角から外れたときに、全周パノラマ映像から被写体の方向を認識して、再び画角内に納めてレリーズ(写真撮影)する操作を容易に行うことが可能になる。   For example, the wearable camera 600 and the digital camera 711 can perform two-way communication by wireless communication, and a display or an electronic viewfinder included in the digital camera 711 can be used as a display unit of the wearable camera 600. Further, the digital camera 711 can measure the elevation angle or depression angle that the photographing optical axis is in the horizontal direction, and the wearable camera 600 can generate an all-round panoramic image with the measured elevation angle or depression angle as the center in the vertical direction. . The generated all-round panoramic image can be displayed on the display or electronic viewfinder provided in the digital camera 711 so as to be superimposed on the actual scenery, and the display mode at that time is the same as in FIG. Can do. Therefore, for example, when the subject to be imaged is out of the imaging field angle of the digital camera 711, the direction of the object is recognized from the all-around panoramic image, and the image is again placed within the angle of view (photographing). It is possible to easily perform the operation.

なお、コード710の先端に、デジタルカメラ711を含めて他の電子機器とウエアラブルカメラ600とを通信可能に接続するコネクタ部を設けてもよい。その場合、ウエアラブルカメラ600にデジタルカメラ711を接続すると同時に相互通信のための接続が確立するため、無線通信を用いる場合に必要となるSSIDやパスワードの入力等の所謂ペアリングの手続を省くことができる。   Note that a connector portion that connects other electronic devices including the digital camera 711 and the wearable camera 600 to be communicable may be provided at the tip of the cord 710. In that case, since the connection for mutual communication is established at the same time that the digital camera 711 is connected to the wearable camera 600, so-called pairing procedures such as SSID and password input required when using wireless communication may be omitted. it can.

図8は、ウエアラブルカメラ600とデジタルカメラ711からなる撮像システムによる撮像補助処理のフローチャートである。図8のフローチャートは、デジタルカメラ711での処理とウエアラブルカメラ600での処理を含む。ウエアラブルカメラ600での各種処理は、ウエアラブルカメラ600のCPUが、メモリ内の不揮発性領域に格納されたプログラムをメモリ内の揮発性領域に展開し、ウエアラブルカメラ600の各部の動作を制御することにより実現される。同様に、デジタルカメラ711での各種処理は、デジタルカメラ711のCPUが、メモリ内の不揮発性領域に格納されたプログラムをメモリ内の揮発性領域に展開し、デジタルカメラ711を構成する各部の動作を制御することにより実現される。なお、デジタルカメラ711による撮影では、ユーザがデジタルカメラ711に設けられた電子ビューファインダを通して被写体を視認しているものとする。   FIG. 8 is a flowchart of imaging assistance processing by the imaging system including the wearable camera 600 and the digital camera 711. The flowchart in FIG. 8 includes processing in the digital camera 711 and processing in the wearable camera 600. The various processes in the wearable camera 600 are performed by the CPU of the wearable camera 600 expanding the program stored in the non-volatile area in the memory to the volatile area in the memory and controlling the operation of each part of the wearable camera 600. Realized. Similarly, in the various processes in the digital camera 711, the CPU of the digital camera 711 expands the program stored in the non-volatile area in the memory to the volatile area in the memory, and the operation of each part constituting the digital camera 711 This is realized by controlling Note that it is assumed that the user is viewing the subject through an electronic viewfinder provided in the digital camera 711 when shooting with the digital camera 711.

ウエアラブルカメラ600の電源がオンに操作され又はウエアラブルカメラ600がユーザに装着されたことを接触センサが検知することにより、また、デジタルカメラ711の電源がオンに操作されることにより、処理が開始される。以下の説明では、ウエアラブルカメラ600のCPUを「CPU(W)」と記し、デジタルカメラ711のCPUを「CPU(D)」と記す。   The processing is started when the wearable camera 600 is turned on or when the contact sensor detects that the wearable camera 600 is attached to the user, or when the digital camera 711 is turned on. The In the following description, the CPU of wearable camera 600 is referred to as “CPU (W)”, and the CPU of digital camera 711 is referred to as “CPU (D)”.

ステップS801ではCPU(D)が、デジタルカメラ711での撮像(被写体像の取得)を開始する。ステップS802ではCPU(D)が、取得中の映像をデジタルカメラ711の電子ビューファインダに表示する。ステップS803ではCPU(D)が、ユーザのデジタルカメラ711に対する操作等により被写体が特定されたか否かを判定する。CPU(D)は、被写体が特定されるまでステップS803の判定を繰り返し(S803でNO)、被写体が特定されたと判定した場合(S803でYES)、処理をステップS804へ進める。ステップS804ではCPU(D)が、特定された被写体の特徴データをメモリに記憶すると共に、特徴データをウエアラブルカメラ600へ送信する。CPU(W)は、デジタルカメラ711から受信した特徴データをメモリに保存する。   In step S <b> 801, the CPU (D) starts imaging (acquisition of a subject image) with the digital camera 711. In step S <b> 802, the CPU (D) displays the image being acquired on the electronic viewfinder of the digital camera 711. In step S <b> 803, the CPU (D) determines whether or not the subject has been specified by the user's operation on the digital camera 711 or the like. The CPU (D) repeats the determination in step S803 until the subject is identified (NO in S803). If it is determined that the subject is identified (YES in S803), the process proceeds to step S804. In step S804, the CPU (D) stores the characteristic data of the specified subject in the memory and transmits the characteristic data to the wearable camera 600. The CPU (W) stores the feature data received from the digital camera 711 in the memory.

ステップS805ではCPU(W)が、全周撮像部による撮像を開始する。ステップS806ではCPU(W)が、デジタルカメラ711から取得してメモリに保存した特徴データに基づき、特徴データと合致する被写体の全周撮像部の撮像画像内での位置を検出する。ここで、デジタルカメラ711の仰角・俯角は、デジタルカメラ711に設けられた3軸ジャイロセンサ等の姿勢検出センサによって継続的に検出されている。そこで、ステップS807ではCPU(W)が、デジタルカメラ711からデジタルカメラ711の角度情報(仰角・俯角の角度θ)を取得する。ステップS808ではCPU(W)が、映像生成部を制御して、ステップS807で取得した角度が垂直方向の中心となるように、ステップS805で撮像を開始した映像から全周パノラマ映像を生成する。以下の説明では、生成された全周パノラマ映像はデジタルカメラ711へ送信されるものとする。   In step S <b> 805, the CPU (W) starts imaging by the all-around imaging unit. In step S806, the CPU (W) detects the position in the captured image of the all-round imaging unit of the subject that matches the feature data based on the feature data acquired from the digital camera 711 and stored in the memory. Here, the elevation angle and depression angle of the digital camera 711 are continuously detected by an attitude detection sensor such as a three-axis gyro sensor provided in the digital camera 711. Therefore, in step S807, the CPU (W) acquires angle information (elevation angle and depression angle θ) of the digital camera 711 from the digital camera 711. In step S808, the CPU (W) controls the video generation unit to generate an all-round panoramic video from the video whose imaging has started in step S805 so that the angle acquired in step S807 is the center in the vertical direction. In the following description, it is assumed that the generated all-round panoramic image is transmitted to the digital camera 711.

ステップS809ではCPU(D)が、先に特定した被写体がデジタルカメラ711の映像(撮像画角)の中にあるか否かを判定する。CPU(D)は、特定された被写体がデジタルカメラ711の映像の中にないと判定した場合(S809でNO)、処理をステップS810へ進める。一方、CPU(D)は、特定された被写体がデジタルカメラ711の映像の中にあると判定した場合(S809でYES)、処理をステップS811へ進める。   In step S <b> 809, the CPU (D) determines whether or not the previously specified subject is in the video (imaging field angle) of the digital camera 711. If the CPU (D) determines that the specified subject is not in the video of the digital camera 711 (NO in S809), the process proceeds to step S810. On the other hand, if the CPU (D) determines that the specified subject is in the video of the digital camera 711 (YES in S809), the process proceeds to step S811.

ステップS810ではCPU(D)が、ウエアラブルカメラ600から取得した全周パノラマ映像を電子ビューファインダ上に表示する。一方、ステップS810ではCPU(D)が、ウエアラブルカメラ600から取得した全周パノラマ映像を電子ビューファインダ上から消去する(全周パノラマ映像を電子ビューファインダにおいて非表示とする)。これは、ユーザが特定の被写体をレリーズ(写真撮影)しようとしたときの構図確認を容易にするためである。つまり、被写体が実風景内にある場合には、その被写体を全周パノラマ映像で確認する必要はなく、全周パノラマ映像が電子ビューファインダに表示されていることは、構図確認の妨げとなるおそれがある。よって、実風景内に被写体がある場合には全周パノラマ映像を非表示とし、被写体が撮影画角から外れた場合に、被写体を効率的に追うことを可能とするために全周パノラマ映像を電子ビューファインダに表示する。   In step S810, the CPU (D) displays the all-round panoramic image acquired from the wearable camera 600 on the electronic viewfinder. On the other hand, in step S810, the CPU (D) deletes the all-round panoramic image acquired from the wearable camera 600 from the electronic viewfinder (the entire panoramic image is not displayed in the electronic viewfinder). This is to facilitate composition confirmation when the user attempts to release (photograph) a specific subject. In other words, when the subject is in a real scene, it is not necessary to check the subject with the panoramic video, and the fact that the panoramic video is displayed on the electronic viewfinder may interfere with composition confirmation. There is. Therefore, if there is a subject in the actual landscape, the panoramic image is not displayed, and the panoramic video is displayed to enable the subject to be tracked efficiently when the subject is out of the shooting angle of view. Display on the electronic viewfinder.

ステップS810,S811の後のステップS812ではCPU(D)が、ユーザによる所定の終了条件が満たされたか否かを判定する。所定の終了条件とは、例えば、デジタルカメラ711の電源をオフする操作等が挙げられる。CPU(D)は、終了条件が満たされたと判定した場合(S812でYES)、本処理を終了させ、終了条件が満たされていないと判定した場合(S812でNO)、処理をステップS806へ戻す。なお、CPU(W)は、CPU(D)が本処理を終了させたことに応じて、全周パノラマ映像の生成を終了させる構成とすることができる。   In step S812 after steps S810 and S811, the CPU (D) determines whether or not a predetermined end condition by the user is satisfied. Examples of the predetermined end condition include an operation of turning off the power of the digital camera 711. If the CPU (D) determines that the end condition is satisfied (YES in S812), the CPU (D) ends the process. If the CPU (D) determines that the end condition is not satisfied (NO in S812), the process returns to step S806. . Note that the CPU (W) can be configured to end the generation of the all-round panoramic video in response to the CPU (D) ending this processing.

なお、上記のステップS808〜S811の処理は、以下の通りに行ってもよい。すなわち、上記説明では、ウエアラブルカメラ600で生成された全周パノラマ映像はデジタルカメラ711へ送信されるものとした。これに対して、CPU(W)は、デジタルカメラ711から全周パノラマ映像の送信要求を受けたときにのみ、ステップS808で生成したデジタルカメラ711へ全周パノラマ映像を送信するように、ウエアラブルカメラ600を制御する。また、CPU(W)は、デジタルカメラ711から全周パノラマ映像の送信停止要求を受けると、デジタルカメラ711への全周パノラマ映像の送信を停止するように、ウエアラブルカメラ600を制御する。そして、ステップS809の判定がNOとなった場合には、CPU(D)は、全周パノラマ映像の送信要求をウエアラブルカメラ600へ送信する。この送信要求を受けたCPU(W)がデジタルカメラ711へ全周パノラマ映像を送信することで、ステップS810の処理の実行が可能になる。一方、ステップS809の判定がYESとなった場合には、CPU(D)は、全周パノラマ映像の送信停止要求をウエアラブルカメラ600へ送信する。この送信停止要求を受けたCPU(W)がデジタルカメラ711への全周パノラマ映像の送信を停止することで、ステップS811の処理の実行が可能になる。   In addition, you may perform the process of said step S808-S811 as follows. In other words, in the above description, it is assumed that the entire panoramic video generated by the wearable camera 600 is transmitted to the digital camera 711. On the other hand, the wearable camera is configured so that the CPU (W) transmits the all-round panoramic image to the digital camera 711 generated in step S808 only when the transmission request for the all-round panoramic image is received from the digital camera 711. 600 is controlled. When the CPU (W) receives a request to stop transmission of all-round panoramic video from the digital camera 711, the CPU (W) controls the wearable camera 600 to stop transmission of all-round panoramic video to the digital camera 711. If the determination in step S809 is NO, the CPU (D) transmits a transmission request for the all-around panoramic video to the wearable camera 600. The CPU (W) that has received this transmission request transmits the panoramic image of the entire circumference to the digital camera 711, whereby the processing in step S810 can be executed. On the other hand, if the determination in step S809 is YES, the CPU (D) transmits to the wearable camera 600 a transmission stop request for the all-around panoramic video. The CPU (W) that has received this transmission stop request stops the transmission of the all-round panoramic video to the digital camera 711, whereby the process of step S811 can be executed.

以上の説明の通り、ウエアラブルカメラ600では、ユーザを中心としたユーザの周囲の全周パノラマ映像を生成し、予め定められた条件に適合する被写体を全周パノラマ映像から検出し、検出した被写体の方向を振動や音声でユーザに通知することができる。これにより、ユーザは、ウエアラブルカメラ600が認識した被写体を直感的に認識することができる。また、ウエアラブルカメラ600をデジタルカメラ等の撮像装置と組み合わせ、撮像装置の表示部にウエアラブルカメラ600で生成した全周パノラマ映像を必要に応じて表示することで、撮像装置での撮像動作を補助することができる。その際、ウエアラブルカメラ600を撮像装置等のネックストラップとして用いることができる。   As described above, wearable camera 600 generates an all-round panoramic image around the user centered on the user, detects a subject that meets a predetermined condition from the all-round panoramic image, and detects the detected subject. The direction can be notified to the user by vibration or voice. As a result, the user can intuitively recognize the subject recognized by the wearable camera 600. Further, the wearable camera 600 is combined with an imaging device such as a digital camera, and the panoramic image generated by the wearable camera 600 is displayed on the display unit of the imaging device as needed, thereby assisting the imaging operation in the imaging device. be able to. At that time, the wearable camera 600 can be used as a neck strap of an imaging device or the like.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、図3のフローチャートについては、各処理の動作主をCPU108として説明したが、各処理は、HMD100のハードウェア構成に従って1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担して行ってもよい。このことは、図8のフローチャートの処理についても同様である。また、上記説明では、本発明をHMDに適用した例について説明したが、本発明はこれに限定されるものではなく、広視野角の撮像が所望される用途への適用が可能である。HMD100のように生成した全周パノラマ映像を表示装置に表示する形態で用いられる用途としては、監視カメラや車載カメラが挙げられる。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, in the flowchart of FIG. 3, the operation main component of each process has been described as the CPU 108, but each process may be performed by one hardware according to the hardware configuration of the HMD 100, or a plurality of hardware may share the process. You may do it. The same applies to the processing of the flowchart of FIG. Moreover, although the example which applied this invention to HMD was demonstrated in the said description, this invention is not limited to this, The application to the use for which imaging of a wide viewing angle is desired is possible. Surveillance cameras and vehicle-mounted cameras are examples of applications used in the form of displaying the entire panoramic video generated like the HMD 100 on a display device.

映像を表示しないウエアラブルカメラ600の構成は、ネックバンドタイプの携帯型音楽プレーヤ、ヘッドバンド又はネックバンドを有するヘッドホンにも適用可能である。この場合には、首掛け部601に対応する保持部材の形状は、首掛け部601と同様に、U字形状とすることができる。また、ウエアラブルカメラ600の構成は、カチューシャ等の装飾品にも適用が可能であり、この場合には、首掛け部601に対応する保持部材に意匠、装飾を施すことが望ましい。更にウエアラブルカメラ600の構成は、二輪車用、自転車用及び工事現場用等の各種ヘルメット等への適用が可能であり、この場合に首掛け部601に対応する保持部材の形状は、ドーム形状(半球体状)とすればよい。   The configuration of the wearable camera 600 that does not display an image can be applied to a neckband type portable music player, a headband, or headphones having a neckband. In this case, the shape of the holding member corresponding to the neck hanging portion 601 can be a U-shape like the neck hanging portion 601. The configuration of the wearable camera 600 can also be applied to decorative items such as headbands. In this case, it is desirable to apply design and decoration to the holding member corresponding to the neck portion 601. Furthermore, the configuration of the wearable camera 600 can be applied to various helmets for motorcycles, bicycles, construction sites, etc. In this case, the shape of the holding member corresponding to the neck portion 601 is a dome shape (hemisphere). Body shape).

本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 HMD(ヘッドマウントディスプレイ)
101 装着部
102 全周撮像部
103 角度計測部
104 表示部
105 映像生成部
106 表示制御部
108 CPU
113 振動部
100 HMD (head mounted display)
DESCRIPTION OF SYMBOLS 101 Mounting part 102 Whole circumference imaging part 103 Angle measurement part 104 Display part 105 Image | video production | generation part 106 Display control part 108 CPU
113 Vibration part

Claims (17)

使用者に装着される装着部と、
前記装着部が前記使用者に装着されたときに前記使用者の眼部と対向する位置に配置される表示部と、
前記使用者を中心とした周囲の所定の範囲を撮像する撮像部と、
前記装着部が水平方向に対して傾いた角度を計測する計測手段と、
前記撮像部が撮像した映像から前記計測手段により計測された角度を垂直方向の中心としたパノラマ映像を生成する生成手段と、
前記生成手段により生成されたパノラマ映像を前記表示部に表示するように制御する制御手段と、を備えることを特徴とする撮像装置。
A mounting part to be worn by the user;
A display unit disposed at a position facing the user's eye when the mounting unit is mounted on the user;
An imaging unit that images a predetermined range around the user;
Measuring means for measuring an angle at which the mounting portion is inclined with respect to a horizontal direction;
Generating means for generating a panoramic image with the angle measured by the measuring means as the center in the vertical direction from the image captured by the imaging unit;
An imaging apparatus comprising: control means for controlling the panoramic video generated by the generating means to be displayed on the display unit.
前記撮像部は、複数の全周魚眼の撮像ユニットを有し、前記複数の撮像ユニットによって前記使用者の全周囲の映像を取得することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging unit includes a plurality of all-round fisheye imaging units, and acquires images of the entire circumference of the user by the plurality of imaging units. 前記生成手段は、前記撮像部が取得した全周囲の映像から全天周映像を生成し、生成した全天周映像から前記パノラマ映像としての全周パノラマ映像を生成することを特徴とする請求項2に記載の撮像装置。   The generation unit generates an all-around panoramic image from the entire surrounding image acquired by the imaging unit, and generates an all-round panoramic image as the panoramic image from the generated all-round image. 2. The imaging device according to 2. 前記制御手段は、前記パノラマ映像の左右中心が前記使用者の顔が向いている方向と略一致するように前記表示部に表示することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The said control means is displayed on the said display part so that the left-right center of the said panoramic image may correspond with the direction to which the said user's face is facing substantially, The display part of Claim 1 characterized by the above-mentioned. The imaging device described. 所定の被写体を特定する特定手段を更に備え、
前記制御手段は、前記特定手段により特定された被写体が前記パノラマ映像に映っている場合に前記特定された被写体の位置と方向の少なくとも一方を示す指標を前記表示部に表示されたパノラマ映像に重畳させて表示することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Further comprising a specifying means for specifying a predetermined subject;
The control unit superimposes an index indicating at least one of a position and a direction of the identified subject on the panoramic image displayed on the display unit when the subject identified by the identifying unit is reflected in the panoramic image. The image pickup apparatus according to claim 1, wherein the image pickup apparatus displays the image.
前記制御手段は、前記パノラマ映像の全範囲のうち前記使用者による直視が可能と判断される方向の一定の範囲内に前記特定された被写体があると判断した場合に前記パノラマ映像の前記表示部における表示を終了し、前記一定の範囲に前記特定された被写体がないと判断した場合に前記パノラマ映像を前記表示部に表示することを特徴とする請求項5に記載の撮像装置。   When the control means determines that the specified subject is within a certain range in a direction in which it is determined that direct viewing by the user is possible among the entire range of the panoramic video, the display unit of the panoramic video 6. The imaging apparatus according to claim 5, wherein the display of the image is terminated and the panoramic image is displayed on the display unit when it is determined that the specified subject does not exist within the certain range. 前記装着部に設けられ、前記特定の被写体の存在する方向を振動させる振動手段または前記方向を前記使用者に伝える音声を発する音響手段の少なくとも一方を備えることを特徴とする請求項5又は6に記載の撮像装置。   7. The apparatus according to claim 5, further comprising at least one of a vibration unit that is provided in the mounting portion and vibrates a direction in which the specific subject exists, or an acoustic unit that emits a sound that conveys the direction to the user. The imaging device described. 前記使用者の指示を受け付ける操作手段を更に備え、
前記制御手段は、前記操作手段を通して入力された指示に応じて前記パノラマ映像を前記表示部において非表示とすることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
An operation means for receiving the user's instruction;
The imaging apparatus according to claim 1, wherein the control unit hides the panoramic video on the display unit in accordance with an instruction input through the operation unit.
前記装着部は、眼鏡のフレームに対応する構造を有し、
前記表示部は、前記装着部に設けられたレンズ部の下側の領域に設けられていることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
The mounting portion has a structure corresponding to a frame of glasses,
The imaging apparatus according to claim 1, wherein the display unit is provided in a lower region of the lens unit provided in the mounting unit.
使用者に装着される保持部材と、
前記保持部材に設けられ、水平方向を検知する検知手段と、
前記保持部材に設けられ、前記保持部材を中心として水平方向を全周にわたって撮像する撮像部と、を備えることを特徴とする撮像装置。
A holding member to be worn by the user;
A detecting means provided on the holding member for detecting a horizontal direction;
An image pickup apparatus comprising: an image pickup unit provided on the holding member and picking up an image of the entire horizontal direction around the holding member.
前記撮像部が撮像した映像から所定の被写体を検出する検出手段と、
前記保持部材に設けられ、前記検出手段が検出した被写体の存在する方向を振動させる振動手段または前記方向を前記使用者に伝える音声を発する音響手段の少なくとも一方と、を更に備えることを特徴とする請求項10に記載の撮像装置。
Detecting means for detecting a predetermined subject from the video imaged by the imaging unit;
It is further provided with at least one of vibration means provided on the holding member for vibrating the direction in which the subject detected by the detection means is present, or acoustic means for emitting a sound for transmitting the direction to the user. The imaging device according to claim 10.
前記保持部材は、前記使用者の頭部または頸部への装着が可能な略U字形状、あるいは、前記使用者の頭部への装着が可能なドーム形状を有することを特徴とする請求項10又は11に記載の撮像装置。   The holding member has a substantially U shape that can be attached to the head or neck of the user, or a dome shape that can be attached to the head of the user. The imaging device according to 10 or 11. 前記保持部材は、別の機器を接続するためのコードと、前記コードの繰り出しと巻き取りを行う手段と、を有することを特徴とする請求項10乃至12のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 10 to 12, wherein the holding member includes a cord for connecting another device and means for feeding and winding the cord. . 前記コードは、前記撮像装置と前記別の機器とを通信可能に接続するコネクタ部を有することを特徴とする請求項13に記載の撮像装置。   The image pickup apparatus according to claim 13, wherein the cord includes a connector unit that connects the image pickup apparatus and the another device so as to communicate with each other. 使用者に装着される装着部を有する撮像装置の制御方法であって、
前記装着部が前記使用者に装着された状態で前記使用者を中心とした周囲の所定の範囲を撮像部により撮像するステップと、
前記装着部が水平方向に対して傾いた角度を計測するステップと、
前記撮像部が撮像した映像から前記計測された角度を垂直方向の中心としたパノラマ映像を生成するステップと、
前記使用者の眼部と対向する位置に配置された表示部に前記パノラマ映像を表示するステップと、を有することを特徴とする撮像装置の制御方法。
A method for controlling an image pickup apparatus having a mounting portion mounted on a user,
Capturing an image of a predetermined range around the user by the imaging unit in a state where the mounting unit is mounted on the user;
Measuring the angle at which the mounting portion is inclined with respect to the horizontal direction;
Generating a panoramic image having the measured angle as a center in the vertical direction from the image captured by the imaging unit;
And a step of displaying the panoramic image on a display unit arranged at a position facing the user's eye.
コンピュータを、請求項1乃至14のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device described in any one of Claims 1 thru | or 14. コンピュータを、請求項1乃至14のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
A computer-readable storage medium storing a program for causing a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 14.
JP2016204486A 2016-10-18 2016-10-18 Imaging device, control method thereof, program, and storage medium Pending JP2018067773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016204486A JP2018067773A (en) 2016-10-18 2016-10-18 Imaging device, control method thereof, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016204486A JP2018067773A (en) 2016-10-18 2016-10-18 Imaging device, control method thereof, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2018067773A true JP2018067773A (en) 2018-04-26

Family

ID=62086401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016204486A Pending JP2018067773A (en) 2016-10-18 2016-10-18 Imaging device, control method thereof, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2018067773A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853073A (en) * 2018-07-25 2020-02-28 北京三星通信技术研究有限公司 Method, device, equipment and system for determining attention point and information processing method
JPWO2020013313A1 (en) * 2018-07-12 2021-03-18 株式会社東芝 Omnidirectional shooting system and omnidirectional shooting method
JP2021067798A (en) * 2019-10-23 2021-04-30 株式会社リコー Imaging apparatus
WO2021100331A1 (en) * 2019-11-20 2021-05-27 ダイキン工業株式会社 Remote work support system
WO2021221341A1 (en) * 2020-04-29 2021-11-04 삼성전자 주식회사 Augmented reality device and control method for same
CN114760418A (en) * 2022-04-24 2022-07-15 蒂姆维澳(上海)网络技术有限公司 360-degree full-view-angle AR monitoring method and system and AR glasses

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346200A (en) * 2000-06-02 2001-12-14 Fuji Heavy Ind Ltd Image segmentation/display system
JP2004088395A (en) * 2002-08-27 2004-03-18 Mitsubishi Heavy Ind Ltd Backward monitoring device
JP2013008307A (en) * 2011-06-27 2013-01-10 Mitsubishi Motors Corp Surroundings monitoring device for pedestrian
WO2013190766A1 (en) * 2012-06-18 2013-12-27 ソニー株式会社 Image display device, image display program, and image display method
WO2015104446A1 (en) * 2014-01-10 2015-07-16 Nokia Technologies Oy Display of a visual representation of a view
JP2015173424A (en) * 2014-03-12 2015-10-01 株式会社セック Video distribution system and video display device
JP2016040163A (en) * 2014-08-11 2016-03-24 セイコーエプソン株式会社 Imaging device, image display device, and vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346200A (en) * 2000-06-02 2001-12-14 Fuji Heavy Ind Ltd Image segmentation/display system
JP2004088395A (en) * 2002-08-27 2004-03-18 Mitsubishi Heavy Ind Ltd Backward monitoring device
JP2013008307A (en) * 2011-06-27 2013-01-10 Mitsubishi Motors Corp Surroundings monitoring device for pedestrian
WO2013190766A1 (en) * 2012-06-18 2013-12-27 ソニー株式会社 Image display device, image display program, and image display method
WO2015104446A1 (en) * 2014-01-10 2015-07-16 Nokia Technologies Oy Display of a visual representation of a view
JP2015173424A (en) * 2014-03-12 2015-10-01 株式会社セック Video distribution system and video display device
JP2016040163A (en) * 2014-08-11 2016-03-24 セイコーエプソン株式会社 Imaging device, image display device, and vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020013313A1 (en) * 2018-07-12 2021-03-18 株式会社東芝 Omnidirectional shooting system and omnidirectional shooting method
JP2022176990A (en) * 2018-07-12 2022-11-30 株式会社東芝 Omnidirectional photographing system and omnidirectional photographing method
CN110853073A (en) * 2018-07-25 2020-02-28 北京三星通信技术研究有限公司 Method, device, equipment and system for determining attention point and information processing method
JP2021067798A (en) * 2019-10-23 2021-04-30 株式会社リコー Imaging apparatus
JP7395953B2 (en) 2019-10-23 2023-12-12 株式会社リコー Imaging device
WO2021100331A1 (en) * 2019-11-20 2021-05-27 ダイキン工業株式会社 Remote work support system
JP2021083079A (en) * 2019-11-20 2021-05-27 ダイキン工業株式会社 Remote operation support system
WO2021221341A1 (en) * 2020-04-29 2021-11-04 삼성전자 주식회사 Augmented reality device and control method for same
CN114760418A (en) * 2022-04-24 2022-07-15 蒂姆维澳(上海)网络技术有限公司 360-degree full-view-angle AR monitoring method and system and AR glasses
CN114760418B (en) * 2022-04-24 2024-06-18 蒂姆维澳(上海)网络技术有限公司 360-Degree full-view AR monitoring method and system and AR glasses

Similar Documents

Publication Publication Date Title
JP2018067773A (en) Imaging device, control method thereof, program, and storage medium
KR102502404B1 (en) Information processing device and method, and program
JP6693060B2 (en) Display system, display device, display device control method, and program
JP6387825B2 (en) Display system and information display method
US10838205B2 (en) Head mounted display, control method thereof, and computer program
JP2019525261A (en) Adjustable nasal bridge assembly for head mounted computer
WO2014128773A1 (en) Gesture registration device, gesture registration program, and gesture registration method
CN103731659B (en) head-mounted display apparatus
JP2010081480A (en) Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
KR20180014492A (en) Method for image display and electronic device supporting the same
US20190222774A1 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
US11393177B2 (en) Information processing apparatus, information processing method, and program
JP6201024B1 (en) Method for supporting input to application for providing content using head mounted device, program for causing computer to execute the method, and content display device
JP2015192436A (en) Transmission terminal, reception terminal, transmission/reception system and program therefor
US11443540B2 (en) Information processing apparatus and information processing method
JP5955348B2 (en) Wearable device having privacy protection function of captured image, control method thereof, and image sharing system
JP2018112809A (en) Head mounted display, control method therefor and computer program
JP2021002301A (en) Image display system, image display device, image display method, program, and head-mounted type image display device
JP2019109850A (en) Transmissive display device, display control method, and computer program
CN114648623A (en) Information processing apparatus, information processing method, and computer-readable medium
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
CN111722401A (en) Display device, display control method, and display system
JP2018074420A (en) Display device, display system, and control method for display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210209