JP2018088028A - Control device and control method - Google Patents

Control device and control method Download PDF

Info

Publication number
JP2018088028A
JP2018088028A JP2016229742A JP2016229742A JP2018088028A JP 2018088028 A JP2018088028 A JP 2018088028A JP 2016229742 A JP2016229742 A JP 2016229742A JP 2016229742 A JP2016229742 A JP 2016229742A JP 2018088028 A JP2018088028 A JP 2018088028A
Authority
JP
Japan
Prior art keywords
user
vibration
unit
target object
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016229742A
Other languages
Japanese (ja)
Inventor
洋司 山本
Yoji Yamamoto
洋司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2016229742A priority Critical patent/JP2018088028A/en
Priority to PCT/JP2017/040978 priority patent/WO2018096988A1/en
Publication of JP2018088028A publication Critical patent/JP2018088028A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device that is capable of notifying a user of the direction of an object without blocking a user's field of view.SOLUTION: In an imaging device 21, a control unit 43 moves a region present in a direction corresponding to an object direction to a prescribed position of a vibration device 22 that stimulates a user's sense of touch on the basis of the object direction which is the direction of an object with respect to a user. The direction of the object present at a user's dead angle is detected by using a photographed image of the user's dead angle, and a vibration command signal or a pressurization command signal is generated based on the direction.SELECTED DRAWING: Figure 2

Description

本開示は、制御装置および制御方法に関し、特に、ユーザの視野を遮らずに対象物体の方向を通知することができるようにした制御装置および制御方法に関する。   The present disclosure relates to a control device and a control method, and more particularly, to a control device and a control method that can notify the direction of a target object without obstructing the user's visual field.

ユーザは、例えば、全方位の画像を撮影可能な全天周カメラなどを装着することにより、自分の後方などの死角を撮影することができる。従って、ユーザは、必要に応じて、死角の撮影画像をスマートフォンやパーソナルコンピュータ(PC)のディスプレイ、ヘッドマウントディスプレイ(HMD)などの表示装置に表示させることにより、死角に存在する物体の方向などを認識することができる。しかしながら、表示装置により、ユーザの視野は遮られるため、新たな死角が生まれる。   For example, the user can shoot a blind spot such as the back of the user by wearing an omnidirectional camera or the like capable of capturing an omnidirectional image. Therefore, the user can display the direction of the object existing in the blind spot by displaying the captured image of the blind spot on a display device such as a smartphone or a personal computer (PC) display or a head mounted display (HMD) as necessary. Can be recognized. However, since the user's field of view is blocked by the display device, a new blind spot is created.

一方、ユーザに情報を通知する装置としては、情報を画像で通知する表示装置のほか、情報を振動で通知する振動装置(例えば、特許文献1参照)などがある。情報を振動で通知する場合、ユーザの視野は遮られない。   On the other hand, as a device for notifying a user of information, there are a display device for notifying information by an image, and a vibration device for notifying information by vibration (for example, see Patent Document 1). When notifying information by vibration, the user's visual field is not obstructed.

特開2008−1285号公報JP 2008-1285 A

しかしながら、特許文献1に記載の発明は、振動装置全体の振動の有無によって情報を通知する。従って、物体の方向などの複雑な情報を通知することが困難である。   However, in the invention described in Patent Document 1, information is notified based on the presence or absence of vibration of the entire vibration device. Therefore, it is difficult to notify complicated information such as the direction of the object.

本開示は、このような状況に鑑みてなされたものであり、ユーザの視野を遮らずに対象物体の方向を通知することができるようにするものである。   This indication is made in view of such a situation, and enables it to notify the direction of a target object, without interrupting a user's visual field.

本開示の一側面の制御装置は、ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御部を備える制御装置である。   The control device according to one aspect of the present disclosure is based on a target object direction that is a direction of the target object with respect to the user, in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sense of the user. It is a control apparatus provided with the control part which operates the area | region which exists.

本開示の一側面の制御方法は、本開示の一側面の制御装置に対応する。   The control method according to one aspect of the present disclosure corresponds to the control device according to one aspect of the present disclosure.

本開示の一側面においては、ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域が動作させられる。   In one aspect of the present disclosure, the target object direction is a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the user's tactile sense based on the target object direction that is the direction of the target object with respect to the user. The region is activated.

なお、本開示の一側面の制御装置は、コンピュータにプログラムを実行させることにより実現することができる。   Note that the control device according to one aspect of the present disclosure can be realized by causing a computer to execute a program.

また、本開示の一側面の制御装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。   Moreover, in order to implement | achieve the control apparatus of 1 side of this indication, the program performed by a computer can be provided by transmitting via a transmission medium or recording on a recording medium.

本開示の一側面によれば、制御を行うことができる。また、本開示の一側面によれば、ユーザの視野を遮らずに対象物体の方向を通知することができる。   According to one aspect of the present disclosure, control can be performed. Further, according to one aspect of the present disclosure, it is possible to notify the direction of the target object without blocking the user's field of view.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本開示を適用した警報システムの第1実施の形態の概要を説明する図である。It is a figure explaining the outline | summary of 1st Embodiment of the alarm system to which this indication is applied. 図1の警報システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the alarm system of FIG. 対象物体方向の検出を説明する図である。It is a figure explaining the detection of a target object direction. 図2の警報システムの警報処理を説明するフローチャートである。It is a flowchart explaining the alarm process of the alarm system of FIG. 図1の撮影装置の他の装着例を示す図である。It is a figure which shows the other example of mounting | wearing of the imaging device of FIG. 図1の振動装置の他の装着例を示す図である。It is a figure which shows the other mounting example of the vibration apparatus of FIG. 図1の振動装置の他の装着例の詳細を示す図である。It is a figure which shows the detail of the other mounting example of the vibration apparatus of FIG. 本開示を適用した警報システムの第2実施の形態の概要を説明する図である。It is a figure explaining the outline | summary of 2nd Embodiment of the alarm system to which this indication is applied. 図8の警報システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the alarm system of FIG. ユーザと対象物体との奥行き方向の距離の算出を説明する図である。It is a figure explaining calculation of the distance of the depth direction of a user and a target object. ユーザと対象物体との奥行き方向の距離と振動部の振動の周波数の関係を示す図である。It is a figure which shows the relationship between the distance of the depth direction of a user and a target object, and the frequency of the vibration of a vibration part. 図9の警報システムの警報処理を説明するフローチャートである。It is a flowchart explaining the alarm process of the alarm system of FIG. ユーザと対象物体との奥行き方向の距離と振動部の振動の振幅の関係を示す図である。It is a figure which shows the relationship between the distance of the depth direction of a user and a target object, and the amplitude of the vibration of a vibration part. 図8の撮影装置の他の装着例を示す図である。It is a figure which shows the other example of mounting | wearing of the imaging device of FIG. 本開示を適用した警報システムの第3実施の形態の構成例を示すブロック図である。It is a block diagram showing an example of composition of a 3rd embodiment of an alarm system to which this indication is applied. 本開示を適用した警報システムの第4実施の形態の構成例を示すブロック図である。It is a block diagram showing an example of composition of a 4th embodiment of an alarm system to which this indication is applied. ユーザと対象物体との奥行き方向の距離と加圧の圧力の関係を示す図である。It is a figure which shows the relationship between the distance of the depth direction of a user and a target object, and the pressure of pressurization. 撮影装置と振動装置の設置例を示す図である。It is a figure which shows the example of installation of an imaging device and a vibration apparatus. コンピュータのハードウエアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of a computer.

以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:警報システム(図1乃至図7)
2.第2実施の形態:警報システム(図8乃至図14)
3.第3実施の形態:警報システム(図15)
4.第4実施の形態:警報システム(図16および図17)
5.触覚部の他の設置例(図18)
6.第5実施の形態:コンピュータ(図19)
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment: Alarm system (FIGS. 1 to 7)
2. Second embodiment: alarm system (FIGS. 8 to 14)
3. Third embodiment: alarm system (FIG. 15)
4). Fourth embodiment: alarm system (FIGS. 16 and 17)
5. Other examples of tactile sensing (Fig. 18)
6). Fifth embodiment: computer (FIG. 19)

<第1実施の形態>
(概要)
図1は、本開示を適用した警報システムの第1実施の形態の概要を説明する図である。
<First embodiment>
(Overview)
FIG. 1 is a diagram illustrating an overview of a first embodiment of an alarm system to which the present disclosure is applied.

図1Aは、警報システム11を装着したユーザ12を横方向から見た図であり、図1Bは、後方から見た図である。   FIG. 1A is a view of the user 12 wearing the alarm system 11 as seen from the lateral direction, and FIG. 1B is a view as seen from the rear.

警報システム11は、撮影装置21と、複数の振動部22Aが格子状に配置された振動装置22とから構成される。図1の例では、ユーザ12は、ユーザ12の死角としてユーザ12の後方を撮影可能なように、ユーザ12の頭部12Aの後方(後頭部)に撮影装置21を装着している。また、ユーザ12は、ユーザ12の胴体部12Bの後方中央(背中)に触覚を刺激する触覚部(触覚デバイス)として振動装置22を装着している。   The alarm system 11 includes an imaging device 21 and a vibration device 22 in which a plurality of vibration units 22A are arranged in a lattice shape. In the example of FIG. 1, the user 12 wears the imaging device 21 behind the head 12 </ b> A (back of the head) of the user 12 so that the rear of the user 12 can be photographed as the blind spot of the user 12. In addition, the user 12 wears the vibration device 22 as a tactile part (tactile device) that stimulates a tactile sense at the rear center (back) of the body part 12B of the user 12.

振動装置22の形態は、特に限定されないが、例えば、図示せぬシートやシャツなどに貼り付けられた状態でユーザ12に提供される。この場合、ユーザ12は、そのシートを衣服に貼り付けたり、そのシャツを着たりすることにより、振動装置22を装着する。   Although the form of the vibration apparatus 22 is not specifically limited, For example, it provides to the user 12 in the state affixed on the sheet | seat, shirt, etc. which are not shown in figure. In this case, the user 12 wears the vibration device 22 by attaching the sheet to clothes or wearing the shirt.

撮影装置21は、ユーザ12の後方を撮影すると、撮影画像から、ユーザ12の後方に存在する人物13などを対象物体として検出する。そして、撮影装置21は、撮影画像を用いて、ユーザ12に対する人物13の方向(図1の例では右後方)14を、ユーザ12に対する対象物体の方向である対象物体方向として検出する。撮影装置21は、振動装置22の中心OVに対して、方向14に対応する方向15(図1の例では右方向)に存在する領域の振動部22Aの振動を指令する振動指令信号を、有線または無線で振動装置22に送信する。 When photographing the rear of the user 12, the photographing device 21 detects a person 13 or the like existing behind the user 12 as a target object from the photographed image. And the imaging device 21 detects the direction (right rear in the example of FIG. 1) 14 of the person 13 with respect to the user 12 as the target object direction that is the direction of the target object with respect to the user 12 using the captured image. The imaging device 21 receives a vibration command signal for instructing the vibration of the vibration unit 22A in the region 15 in the direction 15 (right direction in the example of FIG. 1) corresponding to the direction 14 with respect to the center O V of the vibration device 22. It transmits to the vibration device 22 by wire or wireless.

振動装置22は、振動部22Aごとに振動の有無を制御可能になっている。振動装置22は、撮影装置21から送信されてくる振動指令信号に基づいて、振動指令信号により振動が指令された振動部22Aを所定の周波数および所定の振幅で振動させる。   The vibration device 22 can control the presence or absence of vibration for each vibration part 22A. Based on the vibration command signal transmitted from the imaging device 21, the vibration device 22 vibrates the vibration unit 22A, for which vibration is commanded by the vibration command signal, with a predetermined frequency and a predetermined amplitude.

(警報システムの構成例)
図2は、図1の警報システム11の構成例を示すブロック図である。
(Alarm system configuration example)
FIG. 2 is a block diagram illustrating a configuration example of the alarm system 11 of FIG.

図2の警報システム11の撮影装置21(制御装置)は、カメラ41、検出部42、制御部43、および送信部44により構成される。   The imaging device 21 (control device) of the alarm system 11 of FIG. 2 includes a camera 41, a detection unit 42, a control unit 43, and a transmission unit 44.

撮影装置21のカメラ41は、魚眼カメラや広角カメラなどにより構成される。カメラ41は、ユーザの死角を撮影し、撮影画像を検出部42に供給する。   The camera 41 of the imaging device 21 is configured by a fisheye camera, a wide-angle camera, or the like. The camera 41 captures the blind spot of the user and supplies the captured image to the detection unit 42.

検出部42は、カメラ41から供給される撮影画像に含まれる、死角に存在する人物、動体などを対象物体として検出する。対象物体の検出方法は、特に限定されない。動体の検出方法としては、例えば、背景差分法を採用することができる。また、検出部42は、撮影画像を用いて、カメラ41の光学中心に対する対象物体の方向を、対象物体方向として検出し、制御部43に供給する。   The detection unit 42 detects a person, moving object, or the like existing in a blind spot included in a captured image supplied from the camera 41 as a target object. The method for detecting the target object is not particularly limited. As a moving object detection method, for example, a background subtraction method can be employed. The detection unit 42 detects the direction of the target object with respect to the optical center of the camera 41 as the target object direction using the captured image, and supplies the detected direction to the control unit 43.

制御部43は、検出部42から供給される対象物体方向に基づいて、振動装置22の中心に対して対象物体方向に対応する方向に存在する領域の振動部22Aを振動させるように、その振動部22Aの振動を指令する振動指令信号を生成する。制御部43は、振動指令信号を送信部44に供給する。   Based on the target object direction supplied from the detection unit 42, the control unit 43 vibrates the vibration unit 22A in a region existing in a direction corresponding to the target object direction with respect to the center of the vibration device 22. A vibration command signal for commanding the vibration of the unit 22A is generated. The control unit 43 supplies a vibration command signal to the transmission unit 44.

送信部44は、制御部43から供給される振動指令信号を、有線または無線で振動装置22に送信する。   The transmission unit 44 transmits the vibration command signal supplied from the control unit 43 to the vibration device 22 in a wired or wireless manner.

振動装置22は、受信部51と複数の振動部22Aにより構成される。   The vibration device 22 includes a reception unit 51 and a plurality of vibration units 22A.

振動装置22の受信部51は、送信部44から送信されてくる振動指令信号を受信する。受信部51は、振動指令信号により振動が指令された振動部22Aを制御し、所定の周波数および所定の振幅の振動を発生させる。   The reception unit 51 of the vibration device 22 receives the vibration command signal transmitted from the transmission unit 44. The receiving unit 51 controls the vibration unit 22A in which vibration is commanded by the vibration command signal, and generates a vibration having a predetermined frequency and a predetermined amplitude.

振動部22Aは、リニア振動アクチュエータ、フィルムスピーカなどの薄型(例えば、数mm程度の厚さ)の振動デバイスにより構成される。振動部22Aは、受信部51の制御により振動を発生する。   The vibration unit 22A is configured by a thin vibration device (for example, a thickness of about several mm) such as a linear vibration actuator or a film speaker. The vibration unit 22 </ b> A generates vibration under the control of the reception unit 51.

(対象物体方向の検出の説明)
図3は、図2の検出部42による対象物体方向の検出を説明する図である。
(Explanation of target object direction detection)
FIG. 3 is a diagram for explaining detection of the target object direction by the detection unit 42 in FIG. 2.

なお、図3の例では、カメラ41が魚眼カメラである。また、検出部42は、カメラ41により取得された撮影画像70から、図1の人物13を対象物体として検出している。   In the example of FIG. 3, the camera 41 is a fisheye camera. Further, the detection unit 42 detects the person 13 in FIG. 1 as a target object from the captured image 70 acquired by the camera 41.

この場合、検出部42は、図3Aに示す撮影画像70の中心OPに対する人物13を含む矩形の領域71の中心の方向72に基づいて、図1の方向14を対象物体方向として検出する。 In this case, the detection unit 42 based on the center of the direction 72 of the rectangular area 71 including the person 13 with respect to the center O P of the photographic image 70 shown in FIG. 3A, to detect the direction 14 in FIG. 1 as the object direction.

このようにして対象物体方向として検出された方向14は、ユーザ12の後方に向かって左方向である。従って、図3Bに示すように、ユーザ12側から見た振動装置22上の方向15が左方向にされる。   The direction 14 thus detected as the target object direction is the left direction toward the rear of the user 12. Therefore, as shown in FIG. 3B, the direction 15 on the vibration device 22 viewed from the user 12 side is set to the left.

(警報システムの処理の説明)
図4は、警報システム11の警報処理を説明するフローチャートである。
(Explanation of alarm system processing)
FIG. 4 is a flowchart for explaining alarm processing of the alarm system 11.

図4のステップS11において、撮影装置21のカメラ41は、ユーザの死角を撮影し、撮影画像を検出部42に供給する。   In step S <b> 11 of FIG. 4, the camera 41 of the imaging device 21 captures the blind spot of the user and supplies the captured image to the detection unit 42.

ステップS12において、検出部42は、カメラ41から供給される撮影画像から対象物体を検出する。   In step S <b> 12, the detection unit 42 detects the target object from the captured image supplied from the camera 41.

ステップS13において、検出部42は、撮影画像を用いて対象物体方向を検出し、制御部43に供給する。   In step S <b> 13, the detection unit 42 detects the target object direction using the captured image and supplies the detected direction to the control unit 43.

ステップS14において、制御部43は、検出部42から供給される対象物体方向に基づいて、振動装置22の中心OVに対して対象物体方向に対応する方向に存在する振動部22Aの振動を指令する振動指令信号を生成する。制御部43は、振動指令信号を送信部44に供給する。 In step S14, based on the target object direction supplied from the detection unit 42, the control unit 43 commands the vibration of the vibration unit 22A existing in the direction corresponding to the target object direction with respect to the center O V of the vibration device 22. A vibration command signal is generated. The control unit 43 supplies a vibration command signal to the transmission unit 44.

ステップS15において、送信部44は、制御部43から供給される振動指令信号を、有線または無線で振動装置22に送信する。   In step S <b> 15, the transmission unit 44 transmits the vibration command signal supplied from the control unit 43 to the vibration device 22 in a wired or wireless manner.

ステップS16において、振動装置22の受信部51は、送信部44から送信されてくる振動指令信号を受信する。   In step S <b> 16, the reception unit 51 of the vibration device 22 receives the vibration command signal transmitted from the transmission unit 44.

ステップS17において、受信部51は、振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを制御し、所定の周波数および所定の振幅の振動を発生させる。そして、処理は終了する。   In step S <b> 17, the receiving unit 51 controls the vibration unit 22 </ b> A in which vibration is commanded by the vibration command signal based on the vibration command signal, and generates a vibration having a predetermined frequency and a predetermined amplitude. Then, the process ends.

(撮影装置の他の装着例)
図5は、撮影装置21の他の装着例を示す図である。
(Other mounting examples of the photographing device)
FIG. 5 is a diagram illustrating another example of mounting of the imaging device 21.

図5の上段は、撮影装置21を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。   The upper part of FIG. 5 is a view of the user 12 wearing the photographing device 21 as seen from the lateral direction, and the lower part is a view as seen from the rear.

ユーザ12は、撮影装置21を、図5Aに示すように、頭部12Aの頂上(頭頂部)に装着したり、図5Bに示すように、胴体部12Bの後方(背中)の上部に装着したり、図5Cに示すように、頭部12Aの側面に装着したりすることもできる。   As shown in FIG. 5A, the user 12 attaches the photographing device 21 to the top (top) of the head 12A, or attaches the imaging device 21 to the rear (back) of the body 12B as shown in FIG. 5B. Or as shown to FIG. 5C, it can also mount | wear with the side surface of the head 12A.

撮影装置21の装着位置が、図5A乃至図5Cのいずれの位置であっても、撮影装置21は、ユーザ12の死角としてユーザ12の後方を撮影する。   5A to 5C, the imaging device 21 captures the rear of the user 12 as the blind spot of the user 12.

(振動装置の他の装着例)
図6は、振動装置22の他の装着例を示す図である。
(Other installation examples of vibration device)
FIG. 6 is a diagram illustrating another example of attachment of the vibration device 22.

図6の上段は、振動装置22を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。後述する図7においても同様である。   The upper part of FIG. 6 is a view of the user 12 wearing the vibration device 22 seen from the lateral direction, and the lower part is a view seen from the rear. The same applies to FIG. 7 described later.

ユーザ12は、振動装置22を、図6Aに示すように、頭部12Aの後方全体に装着したり、図6Bに示すように、頭部12Aと胴体部12Bの後方全体に装着したりすることもできる。   The user 12 attaches the vibration device 22 to the entire rear of the head 12A as shown in FIG. 6A, or attaches the vibration device 22 to the entire rear of the head 12A and the trunk 12B as shown in FIG. 6B. You can also.

また、ユーザは、振動装置22を、図6Cに示すように、胴体部12Bの上部(肩)に装着したり、図6Dに示すように、ユーザ12の頭部12A、胴体部12B、腕部12C、および脚部12Dの後方全体に装着したりすることもできる。   In addition, the user attaches the vibration device 22 to the upper part (shoulder) of the torso part 12B as shown in FIG. 6C, or the head 12A, the torso part 12B, the arm part of the user 12 as shown in FIG. 6D. It can also be attached to the entire rear of 12C and leg 12D.

なお、図6A、図6B、および図6Dに示すように、振動装置22が頭部12Aの後方全体に装着される場合には、図7に示すように、ユーザ12の目の後方が振動装置22の中心OVとなるように、振動装置22が装着される。ユーザ12の頭部の中心が振動装置22の中心OVとなるように、振動装置22が装着されるようにしてもよい。 As shown in FIGS. 6A, 6B, and 6D, when the vibration device 22 is attached to the entire rear side of the head 12A, as shown in FIG. The vibration device 22 is attached so as to be the center O V of 22. The vibration device 22 may be mounted so that the center of the head of the user 12 becomes the center O V of the vibration device 22.

また、撮影装置21と振動装置22の装着位置の組み合わせは、互いに異なっていれば、どのような組み合わせであってもよい。   The combination of the mounting positions of the photographing device 21 and the vibration device 22 may be any combination as long as they are different from each other.

例えば、撮影装置21が、図1や図5Aに示したように、頭部12Aの後方に装着される場合、振動装置22は、図1や図6Cに示したように、胴体部12Bにのみ装着される。また、図5Bに示したように、撮影装置21が胴体部12Bに装着される場合、振動装置22は、図6Aに示したように、頭部12Aにのみ装着される。さらに、図5Cに示したように、撮影装置21が頭部12Aの側面に装着される場合、図1や図6A乃至図6Dに示したように、振動装置22は、頭部12Aの側面以外に装着される。   For example, when the photographing device 21 is mounted behind the head 12A as shown in FIGS. 1 and 5A, the vibration device 22 is only attached to the body 12B as shown in FIGS. 1 and 6C. Installed. As shown in FIG. 5B, when the imaging device 21 is attached to the body 12B, the vibration device 22 is attached only to the head 12A as shown in FIG. 6A. Furthermore, as shown in FIG. 5C, when the imaging device 21 is mounted on the side surface of the head 12A, as shown in FIG. 1 and FIGS. 6A to 6D, the vibration device 22 is other than the side surface of the head 12A. It is attached to.

以上のように、撮影装置21は、対象物体方向に基づいて、振動装置22の中心OVに対して対象物体方向に対応する方向に存在する領域の振動部22Aを動作させる。従って、ユーザの視野を遮らずに対象物体方向をユーザに通知することができる。よって、ユーザは、自分の死角ではない前方と自分の死角である後方の対象物体方向を認識することができる。 As described above, the imaging device 21 operates the vibration unit 22A in a region existing in a direction corresponding to the target object direction with respect to the center O V of the vibration device 22 based on the target object direction. Therefore, it is possible to notify the user of the target object direction without blocking the user's field of view. Therefore, the user can recognize the front object direction which is not his / her blind spot and the rear target object direction which is his / her blind spot.

これに対して、全方位の画像を表示することにより、ユーザに前方と後方の対象物体方向を通知する場合、ユーザの前方と後方の両方の画像を同時に表示させることは困難である。両方の画像を同時に表示することができない場合、スクロール等(HMDの場合頭部の回転)によって両方の画像のうちの一方から他方へ表示を切り替える必要がある。従って、前方と後方のいずれか一方は死角になり、両方の対象物体方向を同時に認識することはできない。   On the other hand, when notifying the user of the front and rear target object directions by displaying an omnidirectional image, it is difficult to display both the front and rear images of the user at the same time. When both images cannot be displayed at the same time, it is necessary to switch the display from one of the images to the other by scrolling or the like (in the case of HMD, rotation of the head). Accordingly, one of the front and rear becomes a blind spot, and both target object directions cannot be recognized simultaneously.

また、全方位の画像を俯瞰して表示させることによりユーザの前方と後方の両方の画像を同時に表示させる場合、ユーザの向きと異なる向きの左右方向が直感的にわかりにくいため、前方と後方の両方の対象物体方向を同時に認識することは難しい。   In addition, when both the front and rear images of the user are displayed at the same time by displaying an omnidirectional image in a bird's-eye view, the left and right directions in directions different from the user's direction are difficult to intuitively understand. It is difficult to recognize both target object directions at the same time.

また、ユーザは、振動装置22を装着するので、常に対象物体方向を認識することができる。   Further, since the user wears the vibration device 22, the user can always recognize the target object direction.

さらに、振動装置22は、ユーザと対象物体の間に配置される。即ち、振動装置22と対象物体は、ユーザに対して同じ側に存在する。従って、対象物体方向とユーザに対する振動する振動部22Aの方向とが近くなり、ユーザは、対象物体方向を直観的に認識しやすい。これに対して、振動装置22が、例えば、ユーザに対して対象物体とは反対側に配置される場合、対象物体方向とユーザに対する振動を発生する振動部22Aの方向との間で左右および前後が逆になるため、対象物体方向を直感的に認識しにくい。   Furthermore, the vibration device 22 is disposed between the user and the target object. That is, the vibration device 22 and the target object are on the same side with respect to the user. Therefore, the direction of the target object and the direction of the vibrating unit 22A that vibrates with respect to the user are close, and the user can easily recognize the target object direction intuitively. On the other hand, for example, when the vibration device 22 is disposed on the side opposite to the target object with respect to the user, left and right and front and rear between the target object direction and the direction of the vibration unit 22A that generates vibration for the user. Therefore, it is difficult to intuitively recognize the target object direction.

なお、ユーザの後方の撮影画像が表示されたスマートフォンやパーソナルコンピュータなどのディスプレイをユーザが見る場合も、撮影画像の左右とユーザの左右とが逆になるため、対象物体方向が直観的に分かりにくい。   Note that even when the user looks at a display such as a smartphone or personal computer on which a captured image of the user is displayed, the left and right sides of the captured image and the left and right sides of the user are reversed, so the direction of the target object is difficult to understand intuitively. .

また、撮影装置21は、振動指令信号を生成し、振動装置22に送信する。従って、撮影装置21が撮影画像をそのまま振動装置22に送信し、振動装置22が振動指令信号を生成する場合に比べて、撮影装置21と振動装置22の間の通信量を削減することができる。   In addition, the imaging device 21 generates a vibration command signal and transmits it to the vibration device 22. Therefore, the amount of communication between the imaging device 21 and the vibration device 22 can be reduced compared to the case where the imaging device 21 transmits the captured image as it is to the vibration device 22 and the vibration device 22 generates a vibration command signal. .

<第2実施の形態>
(概要)
図8は、本開示を適用した警報システムの第2実施の形態の概要を説明する図である。
<Second Embodiment>
(Overview)
FIG. 8 is a diagram illustrating an overview of a second embodiment of an alarm system to which the present disclosure is applied.

図8Aは、警報システム90を装着したユーザ12を横方向から見た図であり、図8Bは、後方から見た図である。   FIG. 8A is a view of the user 12 wearing the alarm system 90 as seen from the lateral direction, and FIG. 8B is a view as seen from the rear.

図8に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Among the configurations shown in FIG. 8, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.

図8の警報システム90の構成は、撮影装置21の代わりに2つの撮影装置91−1および91−2が設けられる点、および、振動装置22が振動装置92に代わる点が、図1の警報システム11の構成と異なる。   The alarm system 90 shown in FIG. 8 is configured such that two imaging devices 91-1 and 91-2 are provided instead of the imaging device 21, and that the vibration device 22 is replaced by the vibration device 92. Different from the configuration of the system 11.

図8の例では、ユーザ12は、ユーザ12の死角としてユーザ12の後方を撮影可能なように、ユーザ12の頭部12Aの左右の後方側面に、撮影装置91−1と撮影装置91−2を装着している。また、ユーザ12は、ユーザ12の胴体部12Bの後方中央(背中)に触覚部として振動装置92を装着している。   In the example of FIG. 8, the user 12 captures the imaging device 91-1 and the imaging device 91-2 on the left and right rear sides of the head 12A of the user 12 so that the user 12 can capture the back of the user 12 as the blind spot of the user 12. Wearing. Further, the user 12 wears the vibration device 92 as a tactile sensation part at the rear center (back) of the body 12B of the user 12.

撮影装置91−1および撮影装置91−2は、それぞれ、ユーザ12の後方を撮影すると、撮影画像から、ユーザ12の後方に存在する人物13などを対象物体として検出する。そして、撮影装置91−1は、各撮影画像内の人物13の位置に基づいて、方向14と、人物13とユーザ12の奥行き方向(前後方向)の距離とを検出する。撮影装置91−1は、振動装置92の中心OVに対して方向14に対応する方向15に存在する領域の振動部22Aの、距離に対応する周波数での振動を指令する振動指令信号を、有線または無線で振動装置92に送信する。 When the imaging device 91-1 and the imaging device 91-2 respectively capture the back of the user 12, the imaging device 91-1 and the imaging device 91-2 detect a person 13 or the like existing behind the user 12 as a target object from the captured image. And the imaging device 91-1 detects the direction 14 and the distance in the depth direction (front-rear direction) of the person 13 and the user 12 based on the position of the person 13 in each captured image. The imaging device 91-1 receives a vibration command signal for instructing vibration at a frequency corresponding to the distance of the vibration unit 22 </ b> A in a region 15 in the direction 15 corresponding to the direction 14 with respect to the center O V of the vibration device 92. It transmits to the vibration device 92 by wire or wireless.

振動装置92の構成は、振動部22Aの振動の周波数が可変である点を除いて、振動装置22の構成と同様である。振動装置92は、撮影装置91から送信されてくる振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを、その振動指令信号により指令された振動の周波数および所定の振幅で振動させる。   The configuration of the vibration device 92 is the same as the configuration of the vibration device 22 except that the vibration frequency of the vibration unit 22A is variable. Based on the vibration command signal transmitted from the photographing device 91, the vibration device 92 converts the vibration unit 22 </ b> A, for which vibration is commanded by the vibration command signal, to the vibration frequency and predetermined amplitude commanded by the vibration command signal. Vibrate with.

(警報システムの構成例)
図9は、図8の警報システム90の構成例を示すブロック図である。
(Alarm system configuration example)
FIG. 9 is a block diagram illustrating a configuration example of the alarm system 90 of FIG.

図9に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Of the configurations shown in FIG. 9, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.

撮影装置91−1は、カメラ111、検出部112、距離算出部113、制御部114、および送信部44により構成される。   The imaging device 91-1 includes a camera 111, a detection unit 112, a distance calculation unit 113, a control unit 114, and a transmission unit 44.

撮影装置91−1のカメラ111は、魚眼カメラや広角カメラなどにより構成される。カメラ111は、ユーザの死角を撮影し、撮影画像を検出部112に供給する。   The camera 111 of the photographing apparatus 91-1 is configured by a fisheye camera, a wide angle camera, or the like. The camera 111 captures the blind spot of the user and supplies the captured image to the detection unit 112.

検出部112は、図1の検出部42と同様に、カメラ111から供給される撮影画像に含まれる対象物体を検出する。また、検出部112は、検出部42と同様に、撮影画像を用いて対象物体方向を検出し、制御部114に供給する。さらに、検出部112は、撮影画像内の対象物体の位置を検出し、距離算出部113に供給する。   The detection unit 112 detects a target object included in the photographed image supplied from the camera 111, similarly to the detection unit 42 in FIG. Similarly to the detection unit 42, the detection unit 112 detects the target object direction using the captured image and supplies it to the control unit 114. Further, the detection unit 112 detects the position of the target object in the captured image and supplies the detected position to the distance calculation unit 113.

距離算出部113は、検出部112から供給される位置と撮影装置91−2から供給される位置とのズレ(視差)、カメラ111とカメラ121(後述する)との距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザと対象物体との奥行き方向の距離を算出する。距離算出部113は、算出された距離を制御部114に供給する。   The distance calculation unit 113 includes a shift (parallax) between the position supplied from the detection unit 112 and the position supplied from the imaging device 91-2, the distance between the camera 111 and the camera 121 (described later), and the camera 111 and the camera 121. The distance in the depth direction between the user and the target object is calculated based on the focal length of the user. The distance calculation unit 113 supplies the calculated distance to the control unit 114.

制御部114は、図1の制御部43と同様に、検出部112から供給される対象物体方向に基づいて、振動装置92の中心に対して対象物体方向に対応する方向に存在する領域の振動部22Aを決定する。また、制御部114は、距離算出部113から供給される距離に基づいて、振動部22Aの振動の周波数を決定する。そして、制御部114は、決定された振動部22Aを、決定された周波数で振動させるように、決定された振動部22Aの、決定された周波数での振動を指令する振動指令信号を生成する。制御部114は、振動指令信号を送信部44に供給する。   Similar to the control unit 43 in FIG. 1, the control unit 114 vibrates a region existing in a direction corresponding to the target object direction with respect to the center of the vibration device 92 based on the target object direction supplied from the detection unit 112. The part 22A is determined. Further, the control unit 114 determines the frequency of vibration of the vibration unit 22 </ b> A based on the distance supplied from the distance calculation unit 113. Then, the control unit 114 generates a vibration command signal for instructing the determined vibration unit 22A to vibrate at the determined frequency so as to vibrate the determined vibration unit 22A at the determined frequency. The control unit 114 supplies a vibration command signal to the transmission unit 44.

撮影装置91−2は、カメラ121と検出部122により構成される。   The imaging device 91-2 includes a camera 121 and a detection unit 122.

撮影装置91−2のカメラ121は、魚眼カメラや広角カメラなどにより構成される。カメラ121は、ユーザの死角を撮影し、カメラ111の撮影画像と同一のサイズの撮影画像を検出部122に供給する。   The camera 121 of the photographing apparatus 91-2 is configured by a fisheye camera, a wide angle camera, or the like. The camera 121 captures the blind spot of the user and supplies a captured image having the same size as the captured image of the camera 111 to the detection unit 122.

検出部122は、図1の検出部42と同様に、カメラ121から供給される撮影画像に含まれる対象物体を検出する。また、検出部122は、撮影画像内の対象物体の位置を距離算出部113に供給する。   The detection unit 122 detects a target object included in the captured image supplied from the camera 121, as with the detection unit 42 in FIG. Further, the detection unit 122 supplies the position of the target object in the captured image to the distance calculation unit 113.

振動装置92は、受信部131と複数の振動部22Aにより構成される。   The vibration device 92 includes a reception unit 131 and a plurality of vibration units 22A.

振動装置92の受信部131は、送信部44から送信されてくる振動指令信号を受信する。受信部131は、振動指令信号により振動が指令された振動部22Aを制御し、その振動指令信号により指令された振動の周波数および所定の振幅の振動を発生させる。   The reception unit 131 of the vibration device 92 receives the vibration command signal transmitted from the transmission unit 44. The receiving unit 131 controls the vibration unit 22A in which vibration is commanded by the vibration command signal, and generates a vibration having a frequency and a predetermined amplitude commanded by the vibration command signal.

(距離の算出の説明)
図10は、図9の距離算出部113によるユーザ12と対象物体との奥行き方向の距離の算出を説明する図である。
(Explanation of distance calculation)
FIG. 10 is a diagram illustrating the calculation of the distance in the depth direction between the user 12 and the target object by the distance calculation unit 113 in FIG. 9.

なお、図10の例では、カメラ111およびカメラ121が魚眼カメラである。また、検出部112は、図10Aに示すように、カメラ111により取得された撮影画像140から人物13を対象物体として検出している。検出部122は、図10Bに示すように、カメラ121により取得された撮影画像150から人物13を対象物体として検出している。   In the example of FIG. 10, the camera 111 and the camera 121 are fisheye cameras. In addition, as illustrated in FIG. 10A, the detection unit 112 detects the person 13 as a target object from the captured image 140 acquired by the camera 111. As illustrated in FIG. 10B, the detection unit 122 detects the person 13 as a target object from the captured image 150 acquired by the camera 121.

この場合、検出部112は、図10Aの撮影画像140の中心OPに対する人物13を含む矩形の領域141の中心の方向142に基づいて、方向14を対象物体方向として検出する。また、検出部112は、撮影画像140内の領域141の位置を検出する。さらに、検出部122は、図10Bの撮影画像150内の人物13を含む領域151の位置を検出する。 In this case, the detection unit 112, based on the center of the direction 142 of the rectangular region 141 including the person 13 with respect to the center O P of the captured image 140 in FIG. 10A, to detect the direction 14 as the object direction. In addition, the detection unit 112 detects the position of the region 141 in the captured image 140. Furthermore, the detection unit 122 detects the position of the region 151 including the person 13 in the captured image 150 in FIG. 10B.

そして、距離算出部113は、例えば、領域141と領域151の水平方向の位置の差分dを視差として求める。撮影画像140と撮影画像150のサイズは同一であるため、差分dは、図10Cに示すように、撮影画像140と撮影画像150を重ね合わせたときの領域141と領域151の水平方向の位置の差分である。   Then, the distance calculation unit 113 obtains, for example, the difference d between the horizontal positions of the area 141 and the area 151 as the parallax. Since the size of the captured image 140 and the captured image 150 is the same, the difference d is the horizontal position of the region 141 and the region 151 when the captured image 140 and the captured image 150 are overlapped as shown in FIG. 10C. It is a difference.

距離算出部113は、このようにして求められた差分d、カメラ111とカメラ121の水平方向の距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザ12と対象物体との奥行き方向の距離を算出する。   The distance calculation unit 113 determines the depth direction between the user 12 and the target object based on the difference d thus determined, the horizontal distance between the camera 111 and the camera 121, the focal distance between the camera 111 and the camera 121, and the like. Calculate the distance.

(ユーザと対象物体との奥行き方向の距離と振動の周波数の関係)
図11は、ユーザと対象物体との奥行き方向の距離と振動部22Aの振動の周波数の関係を示す図である。
(Relationship between depth distance between user and target object and vibration frequency)
FIG. 11 is a diagram illustrating the relationship between the distance between the user and the target object in the depth direction and the vibration frequency of the vibration unit 22A.

図11に示すように、制御部114は、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど高くなり、距離が遠いほど低くなるように、振動部22Aの振動の周波数を決定する。その結果、ユーザは、振動部22Aの振動の周波数により、自分自身と対象物体との奥行き方向の距離を認識することができる。   As illustrated in FIG. 11, the control unit 114 sets the vibration frequency of the vibration unit 22A based on the distance in the depth direction between the user and the target object so as to increase as the distance decreases and decrease as the distance increases. decide. As a result, the user can recognize the distance in the depth direction between the user and the target object based on the vibration frequency of the vibration unit 22A.

(警報システムの処理の説明)
図12は、警報システム90の警報処理を説明するフローチャートである。
(Explanation of alarm system processing)
FIG. 12 is a flowchart for explaining alarm processing of the alarm system 90.

図12のステップS31において、撮影装置91−1のカメラ111と撮影装置91−2のカメラ121は、ユーザの死角を撮影する。撮影装置91−1は、撮影の結果得られる撮影画像を検出部112に供給し、撮影装置91−2は、撮影の結果得られる撮影画像を検出部122に供給する。   In step S31 of FIG. 12, the camera 111 of the imaging device 91-1 and the camera 121 of the imaging device 91-2 capture the blind spot of the user. The imaging device 91-1 supplies a captured image obtained as a result of imaging to the detection unit 112, and the imaging device 91-2 supplies a captured image obtained as a result of imaging to the detection unit 122.

ステップS32において、検出部112と検出部122は、撮影画像から対象物体を検出する。   In step S32, the detection unit 112 and the detection unit 122 detect the target object from the captured image.

ステップS33において、検出部112と検出部122は、撮影画像内の対象物体の位置を検出し、距離算出部113に供給する。   In step S <b> 33, the detection unit 112 and the detection unit 122 detect the position of the target object in the captured image and supply the detected position to the distance calculation unit 113.

ステップS34において、距離算出部113は、検出部112および検出部122から供給される位置のズレ、カメラ111とカメラ121との距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザと対象物体との奥行き方向の距離を算出する。距離算出部113は、算出された距離を制御部114に供給する。   In step S34, the distance calculation unit 113 determines the user and the target based on the positional deviation supplied from the detection unit 112 and the detection unit 122, the distance between the camera 111 and the camera 121, the focal length of the camera 111 and the camera 121, and the like. The distance in the depth direction from the object is calculated. The distance calculation unit 113 supplies the calculated distance to the control unit 114.

ステップS35において、制御部114は、距離算出部113から供給されるユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの振動の周波数を決定する。   In step S35, the control unit 114 determines the vibration frequency of the vibration unit 22A based on the distance in the depth direction between the user and the target object supplied from the distance calculation unit 113.

ステップS36において、検出部112は、撮影画像を用いて対象物体方向を検出し、制御部114に供給する。   In step S <b> 36, the detection unit 112 detects the target object direction using the captured image and supplies the detected direction to the control unit 114.

ステップS37において、制御部114は、検出部112から供給される対象物体方向に基づいて、振動装置92の中心OVに対して対象物体方向に対応する方向に存在する振動部22Aを決定する。制御部114は、決定された振動部22Aの、ステップS35で決定された周波数での振動を指令する振動指令信号を生成し、送信部44に供給する。 In step S <b> 37, the control unit 114 determines the vibration unit 22 </ b> A that exists in a direction corresponding to the target object direction with respect to the center O V of the vibration device 92 based on the target object direction supplied from the detection unit 112. The control unit 114 generates a vibration command signal that commands the determined vibration unit 22A to vibrate at the frequency determined in step S35, and supplies the vibration command signal to the transmission unit 44.

ステップS38およびS39の処理は、図4のステップS15およびS16の処理と同様であるので、説明は省略する。   The processes in steps S38 and S39 are the same as the processes in steps S15 and S16 in FIG.

ステップS40において、受信部131は、振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを制御し、その振動指令信号により指令された振動の周波数および所定の振幅の振動を発生させる。そして、処理は終了する。   In step S40, based on the vibration command signal, the reception unit 131 controls the vibration unit 22A in which vibration is commanded by the vibration command signal, and the vibration frequency and a predetermined amplitude vibration commanded by the vibration command signal are received. Is generated. Then, the process ends.

なお、上述した説明では、ユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの振動の周波数が変更されたが、振幅が変更されるようにしてもよい。   In the above description, the vibration frequency of the vibration unit 22A is changed based on the distance between the user and the target object in the depth direction, but the amplitude may be changed.

この場合、制御部114は、例えば、図13に示すように、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど大きくなり、距離が遠いほど小さくなるように、振動部22Aの振動の振幅を決定する。そして、制御部114は、対象物体方向に基づいて決定された振動部22Aを、決定された振幅で振動させるように、決定された振動部22Aの決定された振幅での振動を指令する振動指令信号を生成する。その結果、ユーザは、振動部22Aの振動の振幅により、自分自身と対象物体との奥行き方向の距離を認識することができる。   In this case, for example, as shown in FIG. 13, the control unit 114 increases the vibration unit 22 </ b> A so as to increase as the distance decreases and decrease as the distance increases based on the distance in the depth direction between the user and the target object. Determine the amplitude of vibration. Then, the control unit 114 instructs the vibration unit 22A determined based on the target object direction to vibrate with the determined amplitude so as to command the vibration with the determined amplitude of the determined vibration unit 22A. Generate a signal. As a result, the user can recognize the distance in the depth direction between the user and the target object based on the vibration amplitude of the vibration unit 22A.

(撮影装置の他の装着例)
図14は、撮影装置91−1および撮影装置91−2の他の装着例を示す図である。
(Other mounting examples of the photographing device)
FIG. 14 is a diagram illustrating another mounting example of the imaging device 91-1 and the imaging device 91-2.

図14の上段は、撮影装置91−1および撮影装置91−2を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。   The upper part of FIG. 14 is a view of the user 12 wearing the photographing apparatus 91-1 and the photographing apparatus 91-2 as seen from the lateral direction, and the lower part is a view as seen from the rear.

ユーザ12は、撮影装置91−1および撮影装置91−2を、図14Aに示すように、頭部12Aの左右の側面に装着したり、図14Bに示すように、胴体部12Bの後方の上部(肩)に装着したりすることもできる。   The user 12 attaches the photographing device 91-1 and the photographing device 91-2 to the left and right side surfaces of the head 12A as shown in FIG. 14A, or as shown in FIG. 14B, the upper part behind the body portion 12B. It can also be worn on the shoulder.

撮影装置91−1および撮影装置91−2の装着位置が、図14Aおよび図14Bのいずれの位置であっても、撮影装置91−1および撮影装置91−2は、ユーザ12の死角としてユーザ12の後方を撮影する。   14A and 14B, the photographing device 91-1 and the photographing device 91-2 are set as the blind spot of the user 12 regardless of the mounting position of the photographing device 91-1 and the photographing device 91-2. Take a picture of the back.

なお、振動装置92の装着位置は、図6に示した振動装置22の装着位置と同様にすることもできる。撮影装置91−1、撮影装置91−2、および振動装置92の装着位置の組み合わせは、互いに異なっていれば、どのような組み合わせであってもよい。   Note that the mounting position of the vibration device 92 can be the same as the mounting position of the vibration device 22 shown in FIG. The combination of the mounting positions of the photographing device 91-1, the photographing device 91-2, and the vibration device 92 may be any combination as long as they are different from each other.

例えば、撮影装置91−1および撮影装置91−2が、図8や図14Aに示すように、頭部12Aの側面に装着される場合、振動装置92は、図6A乃至図6Dの振動装置22と同様に、頭部12Aの側面以外に装着される。また、図14Bに示すように、撮影装置91−1および撮影装置91−2が胴体部12Bに装着される場合、振動装置92は、図6Aの振動装置22と同様に、頭部12Aにのみ装着される。   For example, when the imaging device 91-1 and the imaging device 91-2 are mounted on the side surface of the head 12A as shown in FIGS. 8 and 14A, the vibration device 92 is the vibration device 22 of FIGS. 6A to 6D. In the same manner as above, it is mounted on a side other than the side surface of the head 12A. As shown in FIG. 14B, when the photographing device 91-1 and the photographing device 91-2 are mounted on the body 12B, the vibration device 92 is only on the head 12A, like the vibration device 22 in FIG. 6A. Installed.

以上のように、撮影装置91−1は、ユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの周波数または振幅を制御する。従って、ユーザの視野を遮らずにユーザと対象物体との奥行き方向の距離をユーザに通知することができる。   As described above, the imaging device 91-1 controls the frequency or amplitude of the vibration unit 22 </ b> A based on the distance in the depth direction between the user and the target object. Therefore, it is possible to notify the user of the distance in the depth direction between the user and the target object without blocking the user's visual field.

その結果、撮影装置91−1および撮影装置91−2は、例えばユーザの後方を死角として撮影することにより、ユーザは、前方視野を確保したまま、死角に存在する対象物体と自分自身との奥行き方向の距離を認識することができる。これにより、ユーザは、前方だけでなく、死角となる後方の危険の度合や緊急性も予測することができる。   As a result, the imaging device 91-1 and the imaging device 91-2, for example, take an image of the rear of the user as a blind spot, so that the user can obtain the depth between the target object existing in the blind spot and himself / herself while maintaining the forward visual field. The distance in the direction can be recognized. Thereby, the user can predict not only the front but also the degree of danger and urgency behind the blind spot.

<第3実施の形態>
(警報システムの第3実施の形態の構成例)
図15は、本開示を適用した警報システムの第3実施の形態の構成例を示すブロック図である。
<Third Embodiment>
(Configuration example of third embodiment of alarm system)
FIG. 15 is a block diagram illustrating a configuration example of a third embodiment of an alarm system to which the present disclosure is applied.

図15に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Of the configurations shown in FIG. 15, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.

図15の警報システム170の構成は、触覚部がユーザに対して加圧を行う加圧装置である点が、図2の警報システム11の構成と異なる。   The configuration of the alarm system 170 in FIG. 15 is different from the configuration of the alarm system 11 in FIG. 2 in that the tactile sense unit is a pressurizing device that pressurizes the user.

具体的には、警報システム170は、撮影装置171と加圧装置172により構成される。撮影装置171の構成は、制御部43、送信部44の代わりに、制御部181、送信部182が設けられる点が、図2の撮影装置21と異なる。   Specifically, the alarm system 170 includes an imaging device 171 and a pressure device 172. The configuration of the imaging device 171 is different from the imaging device 21 of FIG. 2 in that a control unit 181 and a transmission unit 182 are provided instead of the control unit 43 and the transmission unit 44.

撮影装置171の制御部181は、検出部42から供給される対象物体方向に基づいて、加圧装置172に格子状に配置された複数の加圧部192のうちの、加圧装置172の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を選択する。制御部181は、選択された加圧部192に加圧させるように、その加圧部192の加圧を指令する加圧指令信号を生成する。制御部181は、加圧指令信号を送信部182に供給する。   The control unit 181 of the imaging device 171 is based on the target object direction supplied from the detection unit 42, and the center of the pressurization device 172 among the plurality of pressurization units 192 arranged in a grid pattern on the pressurization device 172. For this, the pressure unit 192 in the region existing in the direction corresponding to the target object direction is selected. The control unit 181 generates a pressurization command signal that commands pressurization of the pressurization unit 192 so that the selected pressurization unit 192 pressurizes. The control unit 181 supplies a pressurization command signal to the transmission unit 182.

送信部182は、制御部181から供給される加圧指令信号を、有線または無線で加圧装置172に送信する。   The transmission unit 182 transmits the pressurization command signal supplied from the control unit 181 to the pressurization device 172 by wire or wireless.

加圧装置172は、受信部191と加圧部192により構成される。   The pressure device 172 includes a receiving unit 191 and a pressure unit 192.

加圧装置172の受信部191は、送信部182から送信されてくる加圧指令信号を受信する。受信部191は、加圧指令信号により加圧が指令された加圧部192を制御し、ユーザに対して所定の圧力で加圧させる。   The receiving unit 191 of the pressurizing device 172 receives the pressurizing command signal transmitted from the transmitting unit 182. The receiving unit 191 controls the pressurizing unit 192 for which pressurization is commanded by the pressurization command signal, and pressurizes the user with a predetermined pressure.

加圧部192は、薄型(例えば、数mm程度の厚さ)の加圧デバイスにより構成される。加圧部192は、受信部191の制御により、ユーザに対して所定の圧力の加圧を行う。   The pressure unit 192 is configured by a thin pressure device (for example, a thickness of about several mm). The pressurizing unit 192 pressurizes the user with a predetermined pressure under the control of the receiving unit 191.

以上のように、撮影装置171は、対象物体方向に基づいて、加圧装置172の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を動作させる。従って、ユーザの視野を遮らずに対象物体方向をユーザに通知することができる。   As described above, the imaging device 171 operates the pressurization unit 192 in a region existing in a direction corresponding to the target object direction with respect to the center of the pressurization device 172 based on the target object direction. Therefore, it is possible to notify the user of the target object direction without blocking the user's field of view.

また、ユーザは、加圧装置172を装着するので、常に対象物体方向を認識することができる。   In addition, since the user wears the pressure device 172, the user can always recognize the target object direction.

さらに、加圧装置172は、振動装置22と同様に、ユーザと対象物体の間に配置されるので、対象物体方向とユーザに対する加圧を行う加圧部192の方向とが近くなり、ユーザは、対象物体方向を直観的に認識しやすい。   Furthermore, since the pressurization device 172 is arranged between the user and the target object, similarly to the vibration device 22, the target object direction and the direction of the pressurization unit 192 that pressurizes the user are close to each other. It is easy to intuitively recognize the target object direction.

<第4実施の形態>
(警報システムの第4実施の形態の構成例)
図16は、本開示を適用した警報システムの第4実施の形態の構成例を示すブロック図である。
<Fourth embodiment>
(Configuration example of fourth embodiment of alarm system)
FIG. 16 is a block diagram illustrating a configuration example of the fourth embodiment of the alarm system to which the present disclosure is applied.

図16に示す構成のうち、図9や図15の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   In the configuration illustrated in FIG. 16, the same reference numerals are given to the same configurations as those in FIGS. 9 and 15. The overlapping description will be omitted as appropriate.

図16の警報システム170の構成は、振動の発生が加圧に代わる点が、図9の警報システム90の構成と異なる。即ち、第4実施の形態は、第2実施の形態と第3実施の形態を組み合わせたものである。   The configuration of the alarm system 170 in FIG. 16 is different from the configuration of the alarm system 90 in FIG. 9 in that the generation of vibration is replaced with pressurization. That is, the fourth embodiment is a combination of the second embodiment and the third embodiment.

具体的には、警報システム170は、撮影装置221、撮影装置91−2、および加圧装置222により構成される。   Specifically, the alarm system 170 includes an imaging device 221, an imaging device 91-2, and a pressurizing device 222.

撮影装置221の構成は、制御部114の代わりに制御部231が設けられる点が、図9の撮影装置91−1の構成と異なる。   The configuration of the imaging device 221 is different from the configuration of the imaging device 91-1 in FIG. 9 in that a control unit 231 is provided instead of the control unit 114.

制御部231は、図15の制御部181と同様に、検出部112から供給される対象物体方向に基づいて、加圧装置222の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を決定する。また、制御部231は、距離算出部113から供給される距離に基づいて、加圧部192の加圧の圧力を決定する。そして、制御部231は、決定された加圧部192を、決定された圧力で加圧させるように、決定された加圧部192の、決定された圧力での加圧を指令する加圧指令信号を生成する。制御部231は、加圧指令信号を送信部182に供給する。   Similarly to the control unit 181 in FIG. 15, the control unit 231 is based on the target object direction supplied from the detection unit 112, and the region existing in the direction corresponding to the target object direction with respect to the center of the pressure device 222. The pressure unit 192 is determined. Further, the control unit 231 determines the pressure of the pressurizing unit 192 based on the distance supplied from the distance calculating unit 113. Then, the control unit 231 pressurizes the determined pressurizing unit 192 to pressurize at the determined pressure so as to pressurize the determined pressurizing unit 192 with the determined pressure. Generate a signal. The control unit 231 supplies a pressurization command signal to the transmission unit 182.

加圧装置222は、受信部241と複数の加圧部192により構成される。   The pressure device 222 includes a receiving unit 241 and a plurality of pressure units 192.

加圧装置222の受信部241は、送信部182から送信されてくる加圧指令信号を受信する。受信部241は、加圧指令信号により振動が指令された加圧部192を制御し、その加圧指令信号により指令された圧力でユーザに対して加圧させる。   The receiving unit 241 of the pressurizing device 222 receives the pressurization command signal transmitted from the transmitting unit 182. The receiving unit 241 controls the pressurizing unit 192 whose vibration is commanded by the pressurizing command signal, and pressurizes the user with the pressure commanded by the pressurizing command signal.

(ユーザと対象物体との奥行き方向の距離と加圧の圧力の関係)
図17は、ユーザと対象物体との奥行き方向の距離と加圧の圧力の関係を示す図である。
(Relationship between the distance between the user and the target object in the depth direction and the pressure of the pressurization)
FIG. 17 is a diagram illustrating the relationship between the distance between the user and the target object in the depth direction and the pressure of pressurization.

図17に示すように、制御部231は、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど強くなり、距離が遠いほど弱くなるように、加圧部192の加圧の圧力を決定する。その結果、ユーザは、加圧部192の加圧により、自分自身と対象物体との奥行き方向の距離を認識することができる。   As shown in FIG. 17, the control unit 231 pressurizes the pressurization unit 192 so that the closer the distance is, the stronger the distance is and the weaker the distance is, based on the distance in the depth direction between the user and the target object. Determine the pressure. As a result, the user can recognize the distance in the depth direction between himself and the target object by the pressurization of the pressurization unit 192.

以上のように、撮影装置221は、ユーザと対象物体との奥行き方向の距離に基づいて、加圧部192が加圧する圧力を制御する。従って、ユーザの視野を遮らずにユーザと対象物体との奥行き方向の距離をユーザに通知することができる。   As described above, the imaging device 221 controls the pressure applied by the pressurizing unit 192 based on the distance in the depth direction between the user and the target object. Therefore, it is possible to notify the user of the distance in the depth direction between the user and the target object without blocking the user's visual field.

その結果、撮影装置221および撮影装置91−2は、例えばユーザの後方を死角として撮影することにより、ユーザは、前方視野を確保したまま、死角に存在する対象物体と自分自身との奥行き方向の距離を認識することができる。これにより、ユーザは、前方だけでなく、死角となる後方の危険の度合や緊急性も予測することができる。   As a result, the imaging device 221 and the imaging device 91-2 shoot, for example, using the rear of the user as a blind spot, so that the user can secure the front field of view in the depth direction between the target object existing in the blind spot and itself. Can recognize the distance. Thereby, the user can predict not only the front but also the degree of danger and urgency behind the blind spot.

なお、上述した説明では、撮影装置21(91−1,91−2)および振動装置22(振動装置92,加圧装置172,加圧装置222)は、ユーザに装着されたが、ユーザに装着されなくてもよい。但し、振動装置22(振動装置92,加圧装置172,加圧装置222)は、ユーザに接触する必要がある。   In the above description, the photographing device 21 (91-1, 91-2) and the vibration device 22 (vibration device 92, pressurization device 172, pressurization device 222) are attached to the user, but are attached to the user. It does not have to be done. However, the vibration device 22 (vibration device 92, pressurization device 172, pressurization device 222) needs to contact the user.

<振動装置の他の設置例>
図18は、この場合の撮影装置21と振動装置22の設置例を示す図である。
<Other installation examples of vibration device>
FIG. 18 is a diagram illustrating an installation example of the imaging device 21 and the vibration device 22 in this case.

図18の例では、ユーザ12の死角として車両260の後方を撮影可能なように、車両260の上部に撮影装置21が設置され、車両260内の座席部261の背もたれ261Aに振動装置22が設置されている。   In the example of FIG. 18, the photographing device 21 is installed on the upper portion of the vehicle 260 so that the rear of the vehicle 260 can be photographed as the blind spot of the user 12, and the vibration device 22 is installed on the backrest 261 </ b> A of the seat portion 261 in the vehicle 260. Has been.

この場合、ユーザ12は、座席部261に座っている間、振動装置22内の振動が発生している振動部22Aの位置に基づいて、対象物体方向を認識することができる。   In this case, while sitting on the seat portion 261, the user 12 can recognize the target object direction based on the position of the vibration portion 22A where the vibration in the vibration device 22 is generated.

なお、説明は省略するが、撮影装置91−1および撮影装置91−2が、撮影装置21と同様に、車両260の上部に設置されるようにしてもよい。また、振動装置92、加圧装置172、および加圧装置222が、振動装置22と同様に、背もたれ261Aに設置されてもよい。   Although description is omitted, the image capturing device 91-1 and the image capturing device 91-2 may be installed on the upper portion of the vehicle 260 in the same manner as the image capturing device 21. Further, the vibration device 92, the pressurization device 172, and the pressurization device 222 may be installed on the backrest 261 </ b> A in the same manner as the vibration device 22.

また、撮影装置21(91−1,91−2)は、ユーザ12の死角を撮影可能な位置であれば、車両260の上部以外の任意の位置に設置することができる。触覚部(振動装置22、振動装置92、加圧装置172、加圧装置222)は、ユーザ12が運転中に接触する位置であれば、背もたれ261A以外の任意の位置に設置することができる。   Moreover, if the imaging device 21 (91-1, 91-2) is a position where the blind spot of the user 12 can be captured, it can be installed at any position other than the upper part of the vehicle 260. The tactile sensation unit (vibration device 22, vibration device 92, pressurization device 172, pressurization device 222) can be installed at any position other than the backrest 261A as long as it is a position where the user 12 contacts during operation.

なお、死角の方向ごとに警報システム11(90,170,220)が設けられ、複数の死角の方向に対応する警報システム11(90,170,220)が、ユーザに対して装着(設置)されるようにしてもよい。   Note that an alarm system 11 (90, 170, 220) is provided for each blind spot direction, and alarm systems 11 (90, 170, 220) corresponding to a plurality of blind spot directions are mounted (installed) on the user. You may make it do.

また、上述した説明では、振動部22A(加圧部192)は、格子状に配置されたが、対象物体方向をユーザに通知可能なように配置されていれば、どのように配置されてもよい。例えば、振動部22A(加圧部192)は、円形状に配置されるようにしてもよい。カメラ41(111,121)が魚眼カメラである場合、撮影画像の形状が円形状であるため、振動部22A(加圧部192)が円形状に配置される場合、対象物体方向と振動を発生する振動部22A(加圧を行う加圧部192)の位置との対応付けが容易になる。   In the above description, the vibrating unit 22A (pressurizing unit 192) is arranged in a lattice shape. However, the vibrating unit 22A (pressurizing unit 192) may be arranged in any manner as long as it is arranged so as to notify the user of the target object direction. Good. For example, the vibrating unit 22A (pressurizing unit 192) may be arranged in a circular shape. When the camera 41 (111, 121) is a fisheye camera, the shape of the photographed image is circular. Therefore, when the vibration unit 22A (pressure unit 192) is arranged in a circular shape, the target object direction and vibration are Correspondence with the position of the generated vibrating part 22A (pressurizing part 192 for applying pressure) is facilitated.

さらに、上述した説明では、対象物体方向やユーザと対象物体との奥行き方向の距離をカメラにより取得したが、レーダ等により取得するようにしてもよい。   Further, in the above description, the target object direction and the distance in the depth direction between the user and the target object are acquired by the camera, but may be acquired by a radar or the like.

また、触覚部としては、振動装置、加圧装置のほか、ユーザに対して電気刺激を与える薄型(例えば、数mm程度の厚さ)の小型同心円電極によるディスプレイなどを採用することができる。   In addition to the vibration device and the pressurizing device, a thin-type (for example, a thickness of about several millimeters) small concentric electrode that gives electrical stimulation to the user can be adopted as the tactile sense unit.

さらに、上述した説明では、撮影装置21(91−1,91−2)と振動装置22(振動装置92、加圧装置172、加圧装置222)が別体とされたが、一体化されてもよい。この場合、例えば、格子状に配置された振動部22A(加圧部192)の一部が撮影装置21に置き換えられる。   Further, in the above description, the photographing device 21 (91-1, 91-2) and the vibration device 22 (vibration device 92, pressurization device 172, pressurization device 222) are separated, but are integrated. Also good. In this case, for example, a part of the vibrating unit 22A (pressurizing unit 192) arranged in a lattice shape is replaced with the imaging device 21.

撮影装置21(91−1,91−2)のカメラ41(111,121)以外のブロックは、振動装置22(振動装置92、加圧装置172、加圧装置222)に設けられるようにしてもよい。   Blocks other than the camera 41 (111, 121) of the imaging device 21 (91-1, 91-2) may be provided in the vibration device 22 (vibration device 92, pressure device 172, pressure device 222). Good.

また、振動を発生する振動部22A(加圧する加圧部192)は、振動装置92(振動装置92、加圧装置172、加圧装置222)の中心以外の位置に対して対象物体方向に対応する方向に存在するものであってもよい。この位置は、例えば、ユーザ12が振動装置92(振動装置92、加圧装置172、加圧装置222)を胴体部12Bに装着する場合、胴体部12B全体や上半身の中心に対応する振動装置22(振動装置92、加圧装置172、加圧装置222)上の位置にすることができる。また、ユーザ12が振動装置92(振動装置92、加圧装置172、加圧装置222)を頭部12Aに装着する場合、頭部12Aの中心または目の後方に対応する振動装置22(振動装置92、加圧装置172、加圧装置222)上の位置にすることができる。   In addition, the vibration unit 22A that generates vibration (pressurization unit 192 that applies pressure) corresponds to the target object direction with respect to a position other than the center of the vibration device 92 (vibration device 92, pressurization device 172, and pressurization device 222). It may exist in the direction of For example, when the user 12 attaches the vibration device 92 (vibration device 92, pressure device 172, pressure device 222) to the body portion 12B, the vibration device 22 corresponding to the entire body portion 12B or the center of the upper body. (Vibration device 92, pressure device 172, pressure device 222). When the user 12 wears the vibration device 92 (vibration device 92, pressurization device 172, pressurization device 222) on the head 12A, the vibration device 22 (vibration device) corresponding to the center of the head 12A or the back of the eye. 92, pressure device 172, pressure device 222).

<第5実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Fifth embodiment>
(Description of computer to which the present disclosure is applied)
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 19 is a block diagram illustrating an example of a hardware configuration of a computer that executes the series of processes described above according to a program.

コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。   In the computer 900, a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903 are connected to each other by a bus 904.

バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。   An input / output interface 905 is further connected to the bus 904. An input unit 906, an output unit 907, a storage unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.

入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。   The input unit 906 includes a keyboard, a mouse, a microphone, and the like. The output unit 907 includes a display, a speaker, and the like. The storage unit 908 includes a hard disk, a nonvolatile memory, and the like. The communication unit 909 includes a network interface or the like. The drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。   In the computer 900 configured as described above, for example, the CPU 901 loads the program stored in the storage unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.

コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。   The program executed by the computer 900 (CPU 901) can be provided by being recorded on a removable medium 911 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。   In the computer 900, the program can be installed in the storage unit 908 via the input / output interface 905 by attaching the removable medium 911 to the drive 910. The program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the storage unit 908. In addition, the program can be installed in the ROM 902 or the storage unit 908 in advance.

なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   Note that the program executed by the computer 900 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as when a call is made in parallel. It may be a program in which processing is performed.

また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, and is not limited, There may exist another effect.

また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present disclosure are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present disclosure.

例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。   For example, the present disclosure can take a configuration of cloud computing in which one function is shared by a plurality of apparatuses via a network and is jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。   In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

また、第1乃至第4実施の形態の1以上を組み合わせてもよい。   One or more of the first to fourth embodiments may be combined.

ユーザは、本開示を適用した警報システムを装着して外出することにより、例えば、ユーザの死角に存在する不審人物や暴走自転車を認識し、ひったくりや暴走自転車による事故などの被害に合うことを防止することができる。また、ユーザは、本開示を適用した警報システムを装着してゴルフコースでプレイをすることにより、例えば、ユーザの死角に存在する他のプレイヤの打ったゴルフボールを認識し、そのゴルフボールに当たることを防止することができる。   A user can wear a warning system to which the present disclosure is applied and go out, for example, to recognize a suspicious person or runaway bicycle in the blind spot of the user and prevent it from being damaged by snatching or an accident caused by a runaway bicycle. can do. In addition, the user wears an alarm system to which the present disclosure is applied and plays on a golf course, for example, recognizes a golf ball hit by another player existing in the user's blind spot and hits the golf ball. Can be prevented.

なお、本開示は、以下のような構成もとることができる。   In addition, this indication can also take the following structures.

(1)
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御部
を備える制御装置。
(2)
前記制御部は、前記領域を振動させる
ように構成された
前記(1)に記載の制御装置。
(3)
前記制御部は、前記領域に加圧させる
ように構成された
前記(1)に記載の制御装置。
(4)
前記対象物体を含む撮影画像を用いて前記対象物体方向を検出する検出部
をさらに備える
前記(1)乃至(3)のいずれかに記載の制御装置。
(5)
前記対象物体を含む複数視点の撮影画像を用いて、前記ユーザと前記対象物体との距離を算出する距離算出部
をさらに備え、
前記制御部は、前記距離算出部により算出された前記距離に基づいて、前記触覚部の動作を制御する
ように構成された
前記(1)に記載の制御装置。
(6)
前記制御部は、前記距離に基づいて決定された周波数または振幅で前記領域を振動させる
ように構成された
前記(5)に記載の制御装置。
(7)
前記制御部は、前記距離に基づいて決定された圧力の加圧を前記領域に行わせる
ように構成された
前記(5)に記載の制御装置。
(8)
前記触覚部は、前記ユーザと前記対象物体の間に配置される
ように構成された
前記(1)乃至(7)のいずれかに記載の制御装置。
(9)
制御装置が、
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御ステップ
を含む制御方法。
(1)
A control unit that operates a region existing in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sensation of the user based on a target object direction that is a direction of the target object with respect to the user; Control device.
(2)
The control device according to (1), wherein the control unit is configured to vibrate the region.
(3)
The control device according to (1), wherein the control unit is configured to pressurize the region.
(4)
The control device according to any one of (1) to (3), further including: a detection unit that detects a direction of the target object using a captured image including the target object.
(5)
A distance calculation unit that calculates a distance between the user and the target object using captured images of a plurality of viewpoints including the target object;
The control device according to (1), wherein the control unit is configured to control an operation of the tactile unit based on the distance calculated by the distance calculation unit.
(6)
The control device according to (5), wherein the control unit is configured to vibrate the region at a frequency or amplitude determined based on the distance.
(7)
The control device according to (5), wherein the control unit is configured to cause the region to pressurize a pressure determined based on the distance.
(8)
The control device according to any one of (1) to (7), wherein the haptic unit is configured to be disposed between the user and the target object.
(9)
The control unit
A control step of operating a region existing in a direction corresponding to the target object direction with respect to a predetermined position of a tactile sense unit that stimulates the user's tactile sense based on a target object direction that is a direction of the target object with respect to the user. Control method.

12 ユーザ, 13 人物, 14,15 方向, 21 撮影装置, 22 振動装置, 22A 振動部, 42 検出部, 43 制御部, 70 撮影画像, 91−1 撮影装置, 92 振動装置, 112 検出部, 113 距離算出部, 114 制御部, 122 検出部, 140,150 撮影画像, 171 撮影装置, 172 加圧装置, 181 制御部, 192 加圧部, 221 撮影装置, 222 加圧装置, 231 制御部   12 users, 13 persons, 14, 15 directions, 21 photographing devices, 22 vibration devices, 22A vibration portions, 42 detection portions, 43 control portions, 70 photographed images, 91-1, photographing devices, 92 vibration devices, 112 detection portions, 113 Distance calculation unit, 114 control unit, 122 detection unit, 140, 150 photographed image, 171 imaging device, 172 pressurization device, 181 control unit, 192 pressurization unit, 221 imaging device, 222 pressurization device, 231 control unit

Claims (9)

ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御部
を備える制御装置。
A control unit that operates a region existing in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sensation of the user based on a target object direction that is a direction of the target object with respect to the user; Control device.
前記制御部は、前記領域を振動させる
ように構成された
請求項1に記載の制御装置。
The control device according to claim 1, wherein the control unit is configured to vibrate the region.
前記制御部は、前記領域に加圧させる
ように構成された
請求項1に記載の制御装置。
The control device according to claim 1, wherein the control unit is configured to pressurize the region.
前記対象物体を含む撮影画像を用いて前記対象物体方向を検出する検出部
をさらに備える
請求項1に記載の制御装置。
The control device according to claim 1, further comprising: a detection unit that detects a direction of the target object using a captured image including the target object.
前記対象物体を含む複数視点の撮影画像を用いて、前記ユーザと前記対象物体との距離を算出する距離算出部
をさらに備え、
前記制御部は、前記距離算出部により算出された前記距離に基づいて、前記触覚部の動作を制御する
ように構成された
請求項1に記載の制御装置。
A distance calculation unit that calculates a distance between the user and the target object using captured images of a plurality of viewpoints including the target object;
The control device according to claim 1, wherein the control unit is configured to control an operation of the tactile unit based on the distance calculated by the distance calculation unit.
前記制御部は、前記距離に基づいて決定された周波数または振幅で前記領域を振動させる
ように構成された
請求項5に記載の制御装置。
The control device according to claim 5, wherein the control unit is configured to vibrate the region at a frequency or amplitude determined based on the distance.
前記制御部は、前記距離に基づいて決定された圧力の加圧を前記領域に行わせる
ように構成された
請求項5に記載の制御装置。
The control device according to claim 5, wherein the control unit is configured to cause the region to pressurize a pressure determined based on the distance.
前記触覚部は、前記ユーザと前記対象物体の間に配置される
ように構成された
請求項1に記載の制御装置。
The control device according to claim 1, wherein the haptic unit is configured to be disposed between the user and the target object.
制御装置が、
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御ステップ
を含む制御方法。
The control unit
A control step of operating a region existing in a direction corresponding to the target object direction with respect to a predetermined position of a tactile sense unit that stimulates the user's tactile sense based on a target object direction that is a direction of the target object with respect to the user. Control method.
JP2016229742A 2016-11-28 2016-11-28 Control device and control method Pending JP2018088028A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016229742A JP2018088028A (en) 2016-11-28 2016-11-28 Control device and control method
PCT/JP2017/040978 WO2018096988A1 (en) 2016-11-28 2017-11-14 Control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016229742A JP2018088028A (en) 2016-11-28 2016-11-28 Control device and control method

Publications (1)

Publication Number Publication Date
JP2018088028A true JP2018088028A (en) 2018-06-07

Family

ID=62196062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016229742A Pending JP2018088028A (en) 2016-11-28 2016-11-28 Control device and control method

Country Status (2)

Country Link
JP (1) JP2018088028A (en)
WO (1) WO2018096988A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111443650A (en) * 2020-06-15 2020-07-24 季华实验室 Terminal for robot blind guiding dog, safety control method of terminal and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001199296A (en) * 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd Warning device, driver's seat having vibrating body, and mobile body equipped with warning device on vehicle
JP6564577B2 (en) * 2015-02-16 2019-08-21 修一 田山 Proximity alarm device for automobiles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111443650A (en) * 2020-06-15 2020-07-24 季华实验室 Terminal for robot blind guiding dog, safety control method of terminal and electronic equipment

Also Published As

Publication number Publication date
WO2018096988A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP6743691B2 (en) Display control device, display control method, and computer program
US9084038B2 (en) Method of controlling audio recording and electronic device
CN107801045B (en) Method, device and system for automatically zooming when playing augmented reality scene
JP2010081480A (en) Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program
JP7119442B2 (en) Monitoring system, monitoring method and monitoring program
JP2018056971A (en) Imaging system, image processing device, image processing method, and program
US11019448B2 (en) Providing audio signals in a virtual environment
JP2017507400A5 (en)
JP2015149634A (en) Image display device and method
JP2012029209A (en) Audio processing system
TW201742020A (en) Warning system for virtual reality device and the warning method of the same
WO2018198499A1 (en) Information processing device, information processing method, and recording medium
KR20130039522A (en) Apparatus and method of creating 3 dimension panorama image
JP2013135341A5 (en)
CN115086547A (en) Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium
WO2018096988A1 (en) Control device and control method
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
US9143763B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
JP2017046233A5 (en)
JP2014155083A5 (en)
JPWO2021020150A5 (en)
JP2021009647A (en) Virtual reality control apparatus, virtual reality head set, virtual reality control method, and program
US20200387221A1 (en) Method, Computer Program and Head Mountable Arrangement for Assisting a Subject to Acquire Spatial Information about an Environment
JP7135378B2 (en) Perimeter monitoring device
JP5765160B2 (en) Stereoscopic imaging device