JP2018088028A - Control device and control method - Google Patents
Control device and control method Download PDFInfo
- Publication number
- JP2018088028A JP2018088028A JP2016229742A JP2016229742A JP2018088028A JP 2018088028 A JP2018088028 A JP 2018088028A JP 2016229742 A JP2016229742 A JP 2016229742A JP 2016229742 A JP2016229742 A JP 2016229742A JP 2018088028 A JP2018088028 A JP 2018088028A
- Authority
- JP
- Japan
- Prior art keywords
- user
- vibration
- unit
- target object
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Description
本開示は、制御装置および制御方法に関し、特に、ユーザの視野を遮らずに対象物体の方向を通知することができるようにした制御装置および制御方法に関する。 The present disclosure relates to a control device and a control method, and more particularly, to a control device and a control method that can notify the direction of a target object without obstructing the user's visual field.
ユーザは、例えば、全方位の画像を撮影可能な全天周カメラなどを装着することにより、自分の後方などの死角を撮影することができる。従って、ユーザは、必要に応じて、死角の撮影画像をスマートフォンやパーソナルコンピュータ(PC)のディスプレイ、ヘッドマウントディスプレイ(HMD)などの表示装置に表示させることにより、死角に存在する物体の方向などを認識することができる。しかしながら、表示装置により、ユーザの視野は遮られるため、新たな死角が生まれる。 For example, the user can shoot a blind spot such as the back of the user by wearing an omnidirectional camera or the like capable of capturing an omnidirectional image. Therefore, the user can display the direction of the object existing in the blind spot by displaying the captured image of the blind spot on a display device such as a smartphone or a personal computer (PC) display or a head mounted display (HMD) as necessary. Can be recognized. However, since the user's field of view is blocked by the display device, a new blind spot is created.
一方、ユーザに情報を通知する装置としては、情報を画像で通知する表示装置のほか、情報を振動で通知する振動装置(例えば、特許文献1参照)などがある。情報を振動で通知する場合、ユーザの視野は遮られない。 On the other hand, as a device for notifying a user of information, there are a display device for notifying information by an image, and a vibration device for notifying information by vibration (for example, see Patent Document 1). When notifying information by vibration, the user's visual field is not obstructed.
しかしながら、特許文献1に記載の発明は、振動装置全体の振動の有無によって情報を通知する。従って、物体の方向などの複雑な情報を通知することが困難である。 However, in the invention described in Patent Document 1, information is notified based on the presence or absence of vibration of the entire vibration device. Therefore, it is difficult to notify complicated information such as the direction of the object.
本開示は、このような状況に鑑みてなされたものであり、ユーザの視野を遮らずに対象物体の方向を通知することができるようにするものである。 This indication is made in view of such a situation, and enables it to notify the direction of a target object, without interrupting a user's visual field.
本開示の一側面の制御装置は、ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御部を備える制御装置である。 The control device according to one aspect of the present disclosure is based on a target object direction that is a direction of the target object with respect to the user, in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sense of the user. It is a control apparatus provided with the control part which operates the area | region which exists.
本開示の一側面の制御方法は、本開示の一側面の制御装置に対応する。 The control method according to one aspect of the present disclosure corresponds to the control device according to one aspect of the present disclosure.
本開示の一側面においては、ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域が動作させられる。 In one aspect of the present disclosure, the target object direction is a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the user's tactile sense based on the target object direction that is the direction of the target object with respect to the user. The region is activated.
なお、本開示の一側面の制御装置は、コンピュータにプログラムを実行させることにより実現することができる。 Note that the control device according to one aspect of the present disclosure can be realized by causing a computer to execute a program.
また、本開示の一側面の制御装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 Moreover, in order to implement | achieve the control apparatus of 1 side of this indication, the program performed by a computer can be provided by transmitting via a transmission medium or recording on a recording medium.
本開示の一側面によれば、制御を行うことができる。また、本開示の一側面によれば、ユーザの視野を遮らずに対象物体の方向を通知することができる。 According to one aspect of the present disclosure, control can be performed. Further, according to one aspect of the present disclosure, it is possible to notify the direction of the target object without blocking the user's field of view.
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:警報システム(図1乃至図7)
2.第2実施の形態:警報システム(図8乃至図14)
3.第3実施の形態:警報システム(図15)
4.第4実施の形態:警報システム(図16および図17)
5.触覚部の他の設置例(図18)
6.第5実施の形態:コンピュータ(図19)
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment: Alarm system (FIGS. 1 to 7)
2. Second embodiment: alarm system (FIGS. 8 to 14)
3. Third embodiment: alarm system (FIG. 15)
4). Fourth embodiment: alarm system (FIGS. 16 and 17)
5. Other examples of tactile sensing (Fig. 18)
6). Fifth embodiment: computer (FIG. 19)
<第1実施の形態>
(概要)
図1は、本開示を適用した警報システムの第1実施の形態の概要を説明する図である。
<First embodiment>
(Overview)
FIG. 1 is a diagram illustrating an overview of a first embodiment of an alarm system to which the present disclosure is applied.
図1Aは、警報システム11を装着したユーザ12を横方向から見た図であり、図1Bは、後方から見た図である。
FIG. 1A is a view of the
警報システム11は、撮影装置21と、複数の振動部22Aが格子状に配置された振動装置22とから構成される。図1の例では、ユーザ12は、ユーザ12の死角としてユーザ12の後方を撮影可能なように、ユーザ12の頭部12Aの後方(後頭部)に撮影装置21を装着している。また、ユーザ12は、ユーザ12の胴体部12Bの後方中央(背中)に触覚を刺激する触覚部(触覚デバイス)として振動装置22を装着している。
The
振動装置22の形態は、特に限定されないが、例えば、図示せぬシートやシャツなどに貼り付けられた状態でユーザ12に提供される。この場合、ユーザ12は、そのシートを衣服に貼り付けたり、そのシャツを着たりすることにより、振動装置22を装着する。
Although the form of the
撮影装置21は、ユーザ12の後方を撮影すると、撮影画像から、ユーザ12の後方に存在する人物13などを対象物体として検出する。そして、撮影装置21は、撮影画像を用いて、ユーザ12に対する人物13の方向(図1の例では右後方)14を、ユーザ12に対する対象物体の方向である対象物体方向として検出する。撮影装置21は、振動装置22の中心OVに対して、方向14に対応する方向15(図1の例では右方向)に存在する領域の振動部22Aの振動を指令する振動指令信号を、有線または無線で振動装置22に送信する。
When photographing the rear of the
振動装置22は、振動部22Aごとに振動の有無を制御可能になっている。振動装置22は、撮影装置21から送信されてくる振動指令信号に基づいて、振動指令信号により振動が指令された振動部22Aを所定の周波数および所定の振幅で振動させる。
The
(警報システムの構成例)
図2は、図1の警報システム11の構成例を示すブロック図である。
(Alarm system configuration example)
FIG. 2 is a block diagram illustrating a configuration example of the
図2の警報システム11の撮影装置21(制御装置)は、カメラ41、検出部42、制御部43、および送信部44により構成される。
The imaging device 21 (control device) of the
撮影装置21のカメラ41は、魚眼カメラや広角カメラなどにより構成される。カメラ41は、ユーザの死角を撮影し、撮影画像を検出部42に供給する。
The
検出部42は、カメラ41から供給される撮影画像に含まれる、死角に存在する人物、動体などを対象物体として検出する。対象物体の検出方法は、特に限定されない。動体の検出方法としては、例えば、背景差分法を採用することができる。また、検出部42は、撮影画像を用いて、カメラ41の光学中心に対する対象物体の方向を、対象物体方向として検出し、制御部43に供給する。
The
制御部43は、検出部42から供給される対象物体方向に基づいて、振動装置22の中心に対して対象物体方向に対応する方向に存在する領域の振動部22Aを振動させるように、その振動部22Aの振動を指令する振動指令信号を生成する。制御部43は、振動指令信号を送信部44に供給する。
Based on the target object direction supplied from the
送信部44は、制御部43から供給される振動指令信号を、有線または無線で振動装置22に送信する。
The
振動装置22は、受信部51と複数の振動部22Aにより構成される。
The
振動装置22の受信部51は、送信部44から送信されてくる振動指令信号を受信する。受信部51は、振動指令信号により振動が指令された振動部22Aを制御し、所定の周波数および所定の振幅の振動を発生させる。
The
振動部22Aは、リニア振動アクチュエータ、フィルムスピーカなどの薄型(例えば、数mm程度の厚さ)の振動デバイスにより構成される。振動部22Aは、受信部51の制御により振動を発生する。
The
(対象物体方向の検出の説明)
図3は、図2の検出部42による対象物体方向の検出を説明する図である。
(Explanation of target object direction detection)
FIG. 3 is a diagram for explaining detection of the target object direction by the
なお、図3の例では、カメラ41が魚眼カメラである。また、検出部42は、カメラ41により取得された撮影画像70から、図1の人物13を対象物体として検出している。
In the example of FIG. 3, the
この場合、検出部42は、図3Aに示す撮影画像70の中心OPに対する人物13を含む矩形の領域71の中心の方向72に基づいて、図1の方向14を対象物体方向として検出する。
In this case, the
このようにして対象物体方向として検出された方向14は、ユーザ12の後方に向かって左方向である。従って、図3Bに示すように、ユーザ12側から見た振動装置22上の方向15が左方向にされる。
The
(警報システムの処理の説明)
図4は、警報システム11の警報処理を説明するフローチャートである。
(Explanation of alarm system processing)
FIG. 4 is a flowchart for explaining alarm processing of the
図4のステップS11において、撮影装置21のカメラ41は、ユーザの死角を撮影し、撮影画像を検出部42に供給する。
In step S <b> 11 of FIG. 4, the
ステップS12において、検出部42は、カメラ41から供給される撮影画像から対象物体を検出する。
In step S <b> 12, the
ステップS13において、検出部42は、撮影画像を用いて対象物体方向を検出し、制御部43に供給する。
In step S <b> 13, the
ステップS14において、制御部43は、検出部42から供給される対象物体方向に基づいて、振動装置22の中心OVに対して対象物体方向に対応する方向に存在する振動部22Aの振動を指令する振動指令信号を生成する。制御部43は、振動指令信号を送信部44に供給する。
In step S14, based on the target object direction supplied from the
ステップS15において、送信部44は、制御部43から供給される振動指令信号を、有線または無線で振動装置22に送信する。
In step S <b> 15, the
ステップS16において、振動装置22の受信部51は、送信部44から送信されてくる振動指令信号を受信する。
In step S <b> 16, the
ステップS17において、受信部51は、振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを制御し、所定の周波数および所定の振幅の振動を発生させる。そして、処理は終了する。
In step S <b> 17, the receiving
(撮影装置の他の装着例)
図5は、撮影装置21の他の装着例を示す図である。
(Other mounting examples of the photographing device)
FIG. 5 is a diagram illustrating another example of mounting of the
図5の上段は、撮影装置21を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。
The upper part of FIG. 5 is a view of the
ユーザ12は、撮影装置21を、図5Aに示すように、頭部12Aの頂上(頭頂部)に装着したり、図5Bに示すように、胴体部12Bの後方(背中)の上部に装着したり、図5Cに示すように、頭部12Aの側面に装着したりすることもできる。
As shown in FIG. 5A, the
撮影装置21の装着位置が、図5A乃至図5Cのいずれの位置であっても、撮影装置21は、ユーザ12の死角としてユーザ12の後方を撮影する。
5A to 5C, the
(振動装置の他の装着例)
図6は、振動装置22の他の装着例を示す図である。
(Other installation examples of vibration device)
FIG. 6 is a diagram illustrating another example of attachment of the
図6の上段は、振動装置22を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。後述する図7においても同様である。
The upper part of FIG. 6 is a view of the
ユーザ12は、振動装置22を、図6Aに示すように、頭部12Aの後方全体に装着したり、図6Bに示すように、頭部12Aと胴体部12Bの後方全体に装着したりすることもできる。
The
また、ユーザは、振動装置22を、図6Cに示すように、胴体部12Bの上部(肩)に装着したり、図6Dに示すように、ユーザ12の頭部12A、胴体部12B、腕部12C、および脚部12Dの後方全体に装着したりすることもできる。
In addition, the user attaches the
なお、図6A、図6B、および図6Dに示すように、振動装置22が頭部12Aの後方全体に装着される場合には、図7に示すように、ユーザ12の目の後方が振動装置22の中心OVとなるように、振動装置22が装着される。ユーザ12の頭部の中心が振動装置22の中心OVとなるように、振動装置22が装着されるようにしてもよい。
As shown in FIGS. 6A, 6B, and 6D, when the
また、撮影装置21と振動装置22の装着位置の組み合わせは、互いに異なっていれば、どのような組み合わせであってもよい。
The combination of the mounting positions of the photographing
例えば、撮影装置21が、図1や図5Aに示したように、頭部12Aの後方に装着される場合、振動装置22は、図1や図6Cに示したように、胴体部12Bにのみ装着される。また、図5Bに示したように、撮影装置21が胴体部12Bに装着される場合、振動装置22は、図6Aに示したように、頭部12Aにのみ装着される。さらに、図5Cに示したように、撮影装置21が頭部12Aの側面に装着される場合、図1や図6A乃至図6Dに示したように、振動装置22は、頭部12Aの側面以外に装着される。
For example, when the photographing
以上のように、撮影装置21は、対象物体方向に基づいて、振動装置22の中心OVに対して対象物体方向に対応する方向に存在する領域の振動部22Aを動作させる。従って、ユーザの視野を遮らずに対象物体方向をユーザに通知することができる。よって、ユーザは、自分の死角ではない前方と自分の死角である後方の対象物体方向を認識することができる。
As described above, the
これに対して、全方位の画像を表示することにより、ユーザに前方と後方の対象物体方向を通知する場合、ユーザの前方と後方の両方の画像を同時に表示させることは困難である。両方の画像を同時に表示することができない場合、スクロール等(HMDの場合頭部の回転)によって両方の画像のうちの一方から他方へ表示を切り替える必要がある。従って、前方と後方のいずれか一方は死角になり、両方の対象物体方向を同時に認識することはできない。 On the other hand, when notifying the user of the front and rear target object directions by displaying an omnidirectional image, it is difficult to display both the front and rear images of the user at the same time. When both images cannot be displayed at the same time, it is necessary to switch the display from one of the images to the other by scrolling or the like (in the case of HMD, rotation of the head). Accordingly, one of the front and rear becomes a blind spot, and both target object directions cannot be recognized simultaneously.
また、全方位の画像を俯瞰して表示させることによりユーザの前方と後方の両方の画像を同時に表示させる場合、ユーザの向きと異なる向きの左右方向が直感的にわかりにくいため、前方と後方の両方の対象物体方向を同時に認識することは難しい。 In addition, when both the front and rear images of the user are displayed at the same time by displaying an omnidirectional image in a bird's-eye view, the left and right directions in directions different from the user's direction are difficult to intuitively understand. It is difficult to recognize both target object directions at the same time.
また、ユーザは、振動装置22を装着するので、常に対象物体方向を認識することができる。
Further, since the user wears the
さらに、振動装置22は、ユーザと対象物体の間に配置される。即ち、振動装置22と対象物体は、ユーザに対して同じ側に存在する。従って、対象物体方向とユーザに対する振動する振動部22Aの方向とが近くなり、ユーザは、対象物体方向を直観的に認識しやすい。これに対して、振動装置22が、例えば、ユーザに対して対象物体とは反対側に配置される場合、対象物体方向とユーザに対する振動を発生する振動部22Aの方向との間で左右および前後が逆になるため、対象物体方向を直感的に認識しにくい。
Furthermore, the
なお、ユーザの後方の撮影画像が表示されたスマートフォンやパーソナルコンピュータなどのディスプレイをユーザが見る場合も、撮影画像の左右とユーザの左右とが逆になるため、対象物体方向が直観的に分かりにくい。 Note that even when the user looks at a display such as a smartphone or personal computer on which a captured image of the user is displayed, the left and right sides of the captured image and the left and right sides of the user are reversed, so the direction of the target object is difficult to understand intuitively. .
また、撮影装置21は、振動指令信号を生成し、振動装置22に送信する。従って、撮影装置21が撮影画像をそのまま振動装置22に送信し、振動装置22が振動指令信号を生成する場合に比べて、撮影装置21と振動装置22の間の通信量を削減することができる。
In addition, the
<第2実施の形態>
(概要)
図8は、本開示を適用した警報システムの第2実施の形態の概要を説明する図である。
<Second Embodiment>
(Overview)
FIG. 8 is a diagram illustrating an overview of a second embodiment of an alarm system to which the present disclosure is applied.
図8Aは、警報システム90を装着したユーザ12を横方向から見た図であり、図8Bは、後方から見た図である。
FIG. 8A is a view of the
図8に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Among the configurations shown in FIG. 8, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.
図8の警報システム90の構成は、撮影装置21の代わりに2つの撮影装置91−1および91−2が設けられる点、および、振動装置22が振動装置92に代わる点が、図1の警報システム11の構成と異なる。
The
図8の例では、ユーザ12は、ユーザ12の死角としてユーザ12の後方を撮影可能なように、ユーザ12の頭部12Aの左右の後方側面に、撮影装置91−1と撮影装置91−2を装着している。また、ユーザ12は、ユーザ12の胴体部12Bの後方中央(背中)に触覚部として振動装置92を装着している。
In the example of FIG. 8, the
撮影装置91−1および撮影装置91−2は、それぞれ、ユーザ12の後方を撮影すると、撮影画像から、ユーザ12の後方に存在する人物13などを対象物体として検出する。そして、撮影装置91−1は、各撮影画像内の人物13の位置に基づいて、方向14と、人物13とユーザ12の奥行き方向(前後方向)の距離とを検出する。撮影装置91−1は、振動装置92の中心OVに対して方向14に対応する方向15に存在する領域の振動部22Aの、距離に対応する周波数での振動を指令する振動指令信号を、有線または無線で振動装置92に送信する。
When the imaging device 91-1 and the imaging device 91-2 respectively capture the back of the
振動装置92の構成は、振動部22Aの振動の周波数が可変である点を除いて、振動装置22の構成と同様である。振動装置92は、撮影装置91から送信されてくる振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを、その振動指令信号により指令された振動の周波数および所定の振幅で振動させる。
The configuration of the
(警報システムの構成例)
図9は、図8の警報システム90の構成例を示すブロック図である。
(Alarm system configuration example)
FIG. 9 is a block diagram illustrating a configuration example of the
図9に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Of the configurations shown in FIG. 9, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.
撮影装置91−1は、カメラ111、検出部112、距離算出部113、制御部114、および送信部44により構成される。
The imaging device 91-1 includes a
撮影装置91−1のカメラ111は、魚眼カメラや広角カメラなどにより構成される。カメラ111は、ユーザの死角を撮影し、撮影画像を検出部112に供給する。
The
検出部112は、図1の検出部42と同様に、カメラ111から供給される撮影画像に含まれる対象物体を検出する。また、検出部112は、検出部42と同様に、撮影画像を用いて対象物体方向を検出し、制御部114に供給する。さらに、検出部112は、撮影画像内の対象物体の位置を検出し、距離算出部113に供給する。
The
距離算出部113は、検出部112から供給される位置と撮影装置91−2から供給される位置とのズレ(視差)、カメラ111とカメラ121(後述する)との距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザと対象物体との奥行き方向の距離を算出する。距離算出部113は、算出された距離を制御部114に供給する。
The
制御部114は、図1の制御部43と同様に、検出部112から供給される対象物体方向に基づいて、振動装置92の中心に対して対象物体方向に対応する方向に存在する領域の振動部22Aを決定する。また、制御部114は、距離算出部113から供給される距離に基づいて、振動部22Aの振動の周波数を決定する。そして、制御部114は、決定された振動部22Aを、決定された周波数で振動させるように、決定された振動部22Aの、決定された周波数での振動を指令する振動指令信号を生成する。制御部114は、振動指令信号を送信部44に供給する。
Similar to the
撮影装置91−2は、カメラ121と検出部122により構成される。
The imaging device 91-2 includes a
撮影装置91−2のカメラ121は、魚眼カメラや広角カメラなどにより構成される。カメラ121は、ユーザの死角を撮影し、カメラ111の撮影画像と同一のサイズの撮影画像を検出部122に供給する。
The
検出部122は、図1の検出部42と同様に、カメラ121から供給される撮影画像に含まれる対象物体を検出する。また、検出部122は、撮影画像内の対象物体の位置を距離算出部113に供給する。
The
振動装置92は、受信部131と複数の振動部22Aにより構成される。
The
振動装置92の受信部131は、送信部44から送信されてくる振動指令信号を受信する。受信部131は、振動指令信号により振動が指令された振動部22Aを制御し、その振動指令信号により指令された振動の周波数および所定の振幅の振動を発生させる。
The
(距離の算出の説明)
図10は、図9の距離算出部113によるユーザ12と対象物体との奥行き方向の距離の算出を説明する図である。
(Explanation of distance calculation)
FIG. 10 is a diagram illustrating the calculation of the distance in the depth direction between the
なお、図10の例では、カメラ111およびカメラ121が魚眼カメラである。また、検出部112は、図10Aに示すように、カメラ111により取得された撮影画像140から人物13を対象物体として検出している。検出部122は、図10Bに示すように、カメラ121により取得された撮影画像150から人物13を対象物体として検出している。
In the example of FIG. 10, the
この場合、検出部112は、図10Aの撮影画像140の中心OPに対する人物13を含む矩形の領域141の中心の方向142に基づいて、方向14を対象物体方向として検出する。また、検出部112は、撮影画像140内の領域141の位置を検出する。さらに、検出部122は、図10Bの撮影画像150内の人物13を含む領域151の位置を検出する。
In this case, the
そして、距離算出部113は、例えば、領域141と領域151の水平方向の位置の差分dを視差として求める。撮影画像140と撮影画像150のサイズは同一であるため、差分dは、図10Cに示すように、撮影画像140と撮影画像150を重ね合わせたときの領域141と領域151の水平方向の位置の差分である。
Then, the
距離算出部113は、このようにして求められた差分d、カメラ111とカメラ121の水平方向の距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザ12と対象物体との奥行き方向の距離を算出する。
The
(ユーザと対象物体との奥行き方向の距離と振動の周波数の関係)
図11は、ユーザと対象物体との奥行き方向の距離と振動部22Aの振動の周波数の関係を示す図である。
(Relationship between depth distance between user and target object and vibration frequency)
FIG. 11 is a diagram illustrating the relationship between the distance between the user and the target object in the depth direction and the vibration frequency of the
図11に示すように、制御部114は、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど高くなり、距離が遠いほど低くなるように、振動部22Aの振動の周波数を決定する。その結果、ユーザは、振動部22Aの振動の周波数により、自分自身と対象物体との奥行き方向の距離を認識することができる。
As illustrated in FIG. 11, the
(警報システムの処理の説明)
図12は、警報システム90の警報処理を説明するフローチャートである。
(Explanation of alarm system processing)
FIG. 12 is a flowchart for explaining alarm processing of the
図12のステップS31において、撮影装置91−1のカメラ111と撮影装置91−2のカメラ121は、ユーザの死角を撮影する。撮影装置91−1は、撮影の結果得られる撮影画像を検出部112に供給し、撮影装置91−2は、撮影の結果得られる撮影画像を検出部122に供給する。
In step S31 of FIG. 12, the
ステップS32において、検出部112と検出部122は、撮影画像から対象物体を検出する。
In step S32, the
ステップS33において、検出部112と検出部122は、撮影画像内の対象物体の位置を検出し、距離算出部113に供給する。
In step S <b> 33, the
ステップS34において、距離算出部113は、検出部112および検出部122から供給される位置のズレ、カメラ111とカメラ121との距離、カメラ111とカメラ121の焦点距離等に基づいて、ユーザと対象物体との奥行き方向の距離を算出する。距離算出部113は、算出された距離を制御部114に供給する。
In step S34, the
ステップS35において、制御部114は、距離算出部113から供給されるユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの振動の周波数を決定する。
In step S35, the
ステップS36において、検出部112は、撮影画像を用いて対象物体方向を検出し、制御部114に供給する。
In step S <b> 36, the
ステップS37において、制御部114は、検出部112から供給される対象物体方向に基づいて、振動装置92の中心OVに対して対象物体方向に対応する方向に存在する振動部22Aを決定する。制御部114は、決定された振動部22Aの、ステップS35で決定された周波数での振動を指令する振動指令信号を生成し、送信部44に供給する。
In step S <b> 37, the
ステップS38およびS39の処理は、図4のステップS15およびS16の処理と同様であるので、説明は省略する。 The processes in steps S38 and S39 are the same as the processes in steps S15 and S16 in FIG.
ステップS40において、受信部131は、振動指令信号に基づいて、その振動指令信号により振動が指令された振動部22Aを制御し、その振動指令信号により指令された振動の周波数および所定の振幅の振動を発生させる。そして、処理は終了する。
In step S40, based on the vibration command signal, the
なお、上述した説明では、ユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの振動の周波数が変更されたが、振幅が変更されるようにしてもよい。
In the above description, the vibration frequency of the
この場合、制御部114は、例えば、図13に示すように、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど大きくなり、距離が遠いほど小さくなるように、振動部22Aの振動の振幅を決定する。そして、制御部114は、対象物体方向に基づいて決定された振動部22Aを、決定された振幅で振動させるように、決定された振動部22Aの決定された振幅での振動を指令する振動指令信号を生成する。その結果、ユーザは、振動部22Aの振動の振幅により、自分自身と対象物体との奥行き方向の距離を認識することができる。
In this case, for example, as shown in FIG. 13, the
(撮影装置の他の装着例)
図14は、撮影装置91−1および撮影装置91−2の他の装着例を示す図である。
(Other mounting examples of the photographing device)
FIG. 14 is a diagram illustrating another mounting example of the imaging device 91-1 and the imaging device 91-2.
図14の上段は、撮影装置91−1および撮影装置91−2を装着したユーザ12を横方向から見た図であり、下段は、後方から見た図である。
The upper part of FIG. 14 is a view of the
ユーザ12は、撮影装置91−1および撮影装置91−2を、図14Aに示すように、頭部12Aの左右の側面に装着したり、図14Bに示すように、胴体部12Bの後方の上部(肩)に装着したりすることもできる。
The
撮影装置91−1および撮影装置91−2の装着位置が、図14Aおよび図14Bのいずれの位置であっても、撮影装置91−1および撮影装置91−2は、ユーザ12の死角としてユーザ12の後方を撮影する。
14A and 14B, the photographing device 91-1 and the photographing device 91-2 are set as the blind spot of the
なお、振動装置92の装着位置は、図6に示した振動装置22の装着位置と同様にすることもできる。撮影装置91−1、撮影装置91−2、および振動装置92の装着位置の組み合わせは、互いに異なっていれば、どのような組み合わせであってもよい。
Note that the mounting position of the
例えば、撮影装置91−1および撮影装置91−2が、図8や図14Aに示すように、頭部12Aの側面に装着される場合、振動装置92は、図6A乃至図6Dの振動装置22と同様に、頭部12Aの側面以外に装着される。また、図14Bに示すように、撮影装置91−1および撮影装置91−2が胴体部12Bに装着される場合、振動装置92は、図6Aの振動装置22と同様に、頭部12Aにのみ装着される。
For example, when the imaging device 91-1 and the imaging device 91-2 are mounted on the side surface of the
以上のように、撮影装置91−1は、ユーザと対象物体との奥行き方向の距離に基づいて、振動部22Aの周波数または振幅を制御する。従って、ユーザの視野を遮らずにユーザと対象物体との奥行き方向の距離をユーザに通知することができる。
As described above, the imaging device 91-1 controls the frequency or amplitude of the
その結果、撮影装置91−1および撮影装置91−2は、例えばユーザの後方を死角として撮影することにより、ユーザは、前方視野を確保したまま、死角に存在する対象物体と自分自身との奥行き方向の距離を認識することができる。これにより、ユーザは、前方だけでなく、死角となる後方の危険の度合や緊急性も予測することができる。 As a result, the imaging device 91-1 and the imaging device 91-2, for example, take an image of the rear of the user as a blind spot, so that the user can obtain the depth between the target object existing in the blind spot and himself / herself while maintaining the forward visual field. The distance in the direction can be recognized. Thereby, the user can predict not only the front but also the degree of danger and urgency behind the blind spot.
<第3実施の形態>
(警報システムの第3実施の形態の構成例)
図15は、本開示を適用した警報システムの第3実施の形態の構成例を示すブロック図である。
<Third Embodiment>
(Configuration example of third embodiment of alarm system)
FIG. 15 is a block diagram illustrating a configuration example of a third embodiment of an alarm system to which the present disclosure is applied.
図15に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Of the configurations shown in FIG. 15, the same configurations as those in FIG. The overlapping description will be omitted as appropriate.
図15の警報システム170の構成は、触覚部がユーザに対して加圧を行う加圧装置である点が、図2の警報システム11の構成と異なる。
The configuration of the
具体的には、警報システム170は、撮影装置171と加圧装置172により構成される。撮影装置171の構成は、制御部43、送信部44の代わりに、制御部181、送信部182が設けられる点が、図2の撮影装置21と異なる。
Specifically, the
撮影装置171の制御部181は、検出部42から供給される対象物体方向に基づいて、加圧装置172に格子状に配置された複数の加圧部192のうちの、加圧装置172の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を選択する。制御部181は、選択された加圧部192に加圧させるように、その加圧部192の加圧を指令する加圧指令信号を生成する。制御部181は、加圧指令信号を送信部182に供給する。
The
送信部182は、制御部181から供給される加圧指令信号を、有線または無線で加圧装置172に送信する。
The
加圧装置172は、受信部191と加圧部192により構成される。
The
加圧装置172の受信部191は、送信部182から送信されてくる加圧指令信号を受信する。受信部191は、加圧指令信号により加圧が指令された加圧部192を制御し、ユーザに対して所定の圧力で加圧させる。
The receiving
加圧部192は、薄型(例えば、数mm程度の厚さ)の加圧デバイスにより構成される。加圧部192は、受信部191の制御により、ユーザに対して所定の圧力の加圧を行う。
The
以上のように、撮影装置171は、対象物体方向に基づいて、加圧装置172の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を動作させる。従って、ユーザの視野を遮らずに対象物体方向をユーザに通知することができる。
As described above, the imaging device 171 operates the
また、ユーザは、加圧装置172を装着するので、常に対象物体方向を認識することができる。
In addition, since the user wears the
さらに、加圧装置172は、振動装置22と同様に、ユーザと対象物体の間に配置されるので、対象物体方向とユーザに対する加圧を行う加圧部192の方向とが近くなり、ユーザは、対象物体方向を直観的に認識しやすい。
Furthermore, since the
<第4実施の形態>
(警報システムの第4実施の形態の構成例)
図16は、本開示を適用した警報システムの第4実施の形態の構成例を示すブロック図である。
<Fourth embodiment>
(Configuration example of fourth embodiment of alarm system)
FIG. 16 is a block diagram illustrating a configuration example of the fourth embodiment of the alarm system to which the present disclosure is applied.
図16に示す構成のうち、図9や図15の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 In the configuration illustrated in FIG. 16, the same reference numerals are given to the same configurations as those in FIGS. 9 and 15. The overlapping description will be omitted as appropriate.
図16の警報システム170の構成は、振動の発生が加圧に代わる点が、図9の警報システム90の構成と異なる。即ち、第4実施の形態は、第2実施の形態と第3実施の形態を組み合わせたものである。
The configuration of the
具体的には、警報システム170は、撮影装置221、撮影装置91−2、および加圧装置222により構成される。
Specifically, the
撮影装置221の構成は、制御部114の代わりに制御部231が設けられる点が、図9の撮影装置91−1の構成と異なる。
The configuration of the imaging device 221 is different from the configuration of the imaging device 91-1 in FIG. 9 in that a
制御部231は、図15の制御部181と同様に、検出部112から供給される対象物体方向に基づいて、加圧装置222の中心に対して対象物体方向に対応する方向に存在する領域の加圧部192を決定する。また、制御部231は、距離算出部113から供給される距離に基づいて、加圧部192の加圧の圧力を決定する。そして、制御部231は、決定された加圧部192を、決定された圧力で加圧させるように、決定された加圧部192の、決定された圧力での加圧を指令する加圧指令信号を生成する。制御部231は、加圧指令信号を送信部182に供給する。
Similarly to the
加圧装置222は、受信部241と複数の加圧部192により構成される。
The
加圧装置222の受信部241は、送信部182から送信されてくる加圧指令信号を受信する。受信部241は、加圧指令信号により振動が指令された加圧部192を制御し、その加圧指令信号により指令された圧力でユーザに対して加圧させる。
The receiving
(ユーザと対象物体との奥行き方向の距離と加圧の圧力の関係)
図17は、ユーザと対象物体との奥行き方向の距離と加圧の圧力の関係を示す図である。
(Relationship between the distance between the user and the target object in the depth direction and the pressure of the pressurization)
FIG. 17 is a diagram illustrating the relationship between the distance between the user and the target object in the depth direction and the pressure of pressurization.
図17に示すように、制御部231は、ユーザと対象物体との奥行き方向の距離に基づいて、距離が近いほど強くなり、距離が遠いほど弱くなるように、加圧部192の加圧の圧力を決定する。その結果、ユーザは、加圧部192の加圧により、自分自身と対象物体との奥行き方向の距離を認識することができる。
As shown in FIG. 17, the
以上のように、撮影装置221は、ユーザと対象物体との奥行き方向の距離に基づいて、加圧部192が加圧する圧力を制御する。従って、ユーザの視野を遮らずにユーザと対象物体との奥行き方向の距離をユーザに通知することができる。
As described above, the imaging device 221 controls the pressure applied by the pressurizing
その結果、撮影装置221および撮影装置91−2は、例えばユーザの後方を死角として撮影することにより、ユーザは、前方視野を確保したまま、死角に存在する対象物体と自分自身との奥行き方向の距離を認識することができる。これにより、ユーザは、前方だけでなく、死角となる後方の危険の度合や緊急性も予測することができる。 As a result, the imaging device 221 and the imaging device 91-2 shoot, for example, using the rear of the user as a blind spot, so that the user can secure the front field of view in the depth direction between the target object existing in the blind spot and itself. Can recognize the distance. Thereby, the user can predict not only the front but also the degree of danger and urgency behind the blind spot.
なお、上述した説明では、撮影装置21(91−1,91−2)および振動装置22(振動装置92,加圧装置172,加圧装置222)は、ユーザに装着されたが、ユーザに装着されなくてもよい。但し、振動装置22(振動装置92,加圧装置172,加圧装置222)は、ユーザに接触する必要がある。
In the above description, the photographing device 21 (91-1, 91-2) and the vibration device 22 (
<振動装置の他の設置例>
図18は、この場合の撮影装置21と振動装置22の設置例を示す図である。
<Other installation examples of vibration device>
FIG. 18 is a diagram illustrating an installation example of the
図18の例では、ユーザ12の死角として車両260の後方を撮影可能なように、車両260の上部に撮影装置21が設置され、車両260内の座席部261の背もたれ261Aに振動装置22が設置されている。
In the example of FIG. 18, the photographing
この場合、ユーザ12は、座席部261に座っている間、振動装置22内の振動が発生している振動部22Aの位置に基づいて、対象物体方向を認識することができる。
In this case, while sitting on the
なお、説明は省略するが、撮影装置91−1および撮影装置91−2が、撮影装置21と同様に、車両260の上部に設置されるようにしてもよい。また、振動装置92、加圧装置172、および加圧装置222が、振動装置22と同様に、背もたれ261Aに設置されてもよい。
Although description is omitted, the image capturing device 91-1 and the image capturing device 91-2 may be installed on the upper portion of the
また、撮影装置21(91−1,91−2)は、ユーザ12の死角を撮影可能な位置であれば、車両260の上部以外の任意の位置に設置することができる。触覚部(振動装置22、振動装置92、加圧装置172、加圧装置222)は、ユーザ12が運転中に接触する位置であれば、背もたれ261A以外の任意の位置に設置することができる。
Moreover, if the imaging device 21 (91-1, 91-2) is a position where the blind spot of the
なお、死角の方向ごとに警報システム11(90,170,220)が設けられ、複数の死角の方向に対応する警報システム11(90,170,220)が、ユーザに対して装着(設置)されるようにしてもよい。 Note that an alarm system 11 (90, 170, 220) is provided for each blind spot direction, and alarm systems 11 (90, 170, 220) corresponding to a plurality of blind spot directions are mounted (installed) on the user. You may make it do.
また、上述した説明では、振動部22A(加圧部192)は、格子状に配置されたが、対象物体方向をユーザに通知可能なように配置されていれば、どのように配置されてもよい。例えば、振動部22A(加圧部192)は、円形状に配置されるようにしてもよい。カメラ41(111,121)が魚眼カメラである場合、撮影画像の形状が円形状であるため、振動部22A(加圧部192)が円形状に配置される場合、対象物体方向と振動を発生する振動部22A(加圧を行う加圧部192)の位置との対応付けが容易になる。
In the above description, the vibrating
さらに、上述した説明では、対象物体方向やユーザと対象物体との奥行き方向の距離をカメラにより取得したが、レーダ等により取得するようにしてもよい。 Further, in the above description, the target object direction and the distance in the depth direction between the user and the target object are acquired by the camera, but may be acquired by a radar or the like.
また、触覚部としては、振動装置、加圧装置のほか、ユーザに対して電気刺激を与える薄型(例えば、数mm程度の厚さ)の小型同心円電極によるディスプレイなどを採用することができる。 In addition to the vibration device and the pressurizing device, a thin-type (for example, a thickness of about several millimeters) small concentric electrode that gives electrical stimulation to the user can be adopted as the tactile sense unit.
さらに、上述した説明では、撮影装置21(91−1,91−2)と振動装置22(振動装置92、加圧装置172、加圧装置222)が別体とされたが、一体化されてもよい。この場合、例えば、格子状に配置された振動部22A(加圧部192)の一部が撮影装置21に置き換えられる。
Further, in the above description, the photographing device 21 (91-1, 91-2) and the vibration device 22 (
撮影装置21(91−1,91−2)のカメラ41(111,121)以外のブロックは、振動装置22(振動装置92、加圧装置172、加圧装置222)に設けられるようにしてもよい。
Blocks other than the camera 41 (111, 121) of the imaging device 21 (91-1, 91-2) may be provided in the vibration device 22 (
また、振動を発生する振動部22A(加圧する加圧部192)は、振動装置92(振動装置92、加圧装置172、加圧装置222)の中心以外の位置に対して対象物体方向に対応する方向に存在するものであってもよい。この位置は、例えば、ユーザ12が振動装置92(振動装置92、加圧装置172、加圧装置222)を胴体部12Bに装着する場合、胴体部12B全体や上半身の中心に対応する振動装置22(振動装置92、加圧装置172、加圧装置222)上の位置にすることができる。また、ユーザ12が振動装置92(振動装置92、加圧装置172、加圧装置222)を頭部12Aに装着する場合、頭部12Aの中心または目の後方に対応する振動装置22(振動装置92、加圧装置172、加圧装置222)上の位置にすることができる。
In addition, the
<第5実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Fifth embodiment>
(Description of computer to which the present disclosure is applied)
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 19 is a block diagram illustrating an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
In the
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
An input /
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
The
以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
In the
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
The program executed by the computer 900 (CPU 901) can be provided by being recorded on a
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
In the
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
Note that the program executed by the
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 In addition, the effect described in this specification is an illustration to the last, and is not limited, There may exist another effect.
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present disclosure are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present disclosure.
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present disclosure can take a configuration of cloud computing in which one function is shared by a plurality of apparatuses via a network and is jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
また、第1乃至第4実施の形態の1以上を組み合わせてもよい。 One or more of the first to fourth embodiments may be combined.
ユーザは、本開示を適用した警報システムを装着して外出することにより、例えば、ユーザの死角に存在する不審人物や暴走自転車を認識し、ひったくりや暴走自転車による事故などの被害に合うことを防止することができる。また、ユーザは、本開示を適用した警報システムを装着してゴルフコースでプレイをすることにより、例えば、ユーザの死角に存在する他のプレイヤの打ったゴルフボールを認識し、そのゴルフボールに当たることを防止することができる。 A user can wear a warning system to which the present disclosure is applied and go out, for example, to recognize a suspicious person or runaway bicycle in the blind spot of the user and prevent it from being damaged by snatching or an accident caused by a runaway bicycle. can do. In addition, the user wears an alarm system to which the present disclosure is applied and plays on a golf course, for example, recognizes a golf ball hit by another player existing in the user's blind spot and hits the golf ball. Can be prevented.
なお、本開示は、以下のような構成もとることができる。 In addition, this indication can also take the following structures.
(1)
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御部
を備える制御装置。
(2)
前記制御部は、前記領域を振動させる
ように構成された
前記(1)に記載の制御装置。
(3)
前記制御部は、前記領域に加圧させる
ように構成された
前記(1)に記載の制御装置。
(4)
前記対象物体を含む撮影画像を用いて前記対象物体方向を検出する検出部
をさらに備える
前記(1)乃至(3)のいずれかに記載の制御装置。
(5)
前記対象物体を含む複数視点の撮影画像を用いて、前記ユーザと前記対象物体との距離を算出する距離算出部
をさらに備え、
前記制御部は、前記距離算出部により算出された前記距離に基づいて、前記触覚部の動作を制御する
ように構成された
前記(1)に記載の制御装置。
(6)
前記制御部は、前記距離に基づいて決定された周波数または振幅で前記領域を振動させる
ように構成された
前記(5)に記載の制御装置。
(7)
前記制御部は、前記距離に基づいて決定された圧力の加圧を前記領域に行わせる
ように構成された
前記(5)に記載の制御装置。
(8)
前記触覚部は、前記ユーザと前記対象物体の間に配置される
ように構成された
前記(1)乃至(7)のいずれかに記載の制御装置。
(9)
制御装置が、
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御ステップ
を含む制御方法。
(1)
A control unit that operates a region existing in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sensation of the user based on a target object direction that is a direction of the target object with respect to the user; Control device.
(2)
The control device according to (1), wherein the control unit is configured to vibrate the region.
(3)
The control device according to (1), wherein the control unit is configured to pressurize the region.
(4)
The control device according to any one of (1) to (3), further including: a detection unit that detects a direction of the target object using a captured image including the target object.
(5)
A distance calculation unit that calculates a distance between the user and the target object using captured images of a plurality of viewpoints including the target object;
The control device according to (1), wherein the control unit is configured to control an operation of the tactile unit based on the distance calculated by the distance calculation unit.
(6)
The control device according to (5), wherein the control unit is configured to vibrate the region at a frequency or amplitude determined based on the distance.
(7)
The control device according to (5), wherein the control unit is configured to cause the region to pressurize a pressure determined based on the distance.
(8)
The control device according to any one of (1) to (7), wherein the haptic unit is configured to be disposed between the user and the target object.
(9)
The control unit
A control step of operating a region existing in a direction corresponding to the target object direction with respect to a predetermined position of a tactile sense unit that stimulates the user's tactile sense based on a target object direction that is a direction of the target object with respect to the user. Control method.
12 ユーザ, 13 人物, 14,15 方向, 21 撮影装置, 22 振動装置, 22A 振動部, 42 検出部, 43 制御部, 70 撮影画像, 91−1 撮影装置, 92 振動装置, 112 検出部, 113 距離算出部, 114 制御部, 122 検出部, 140,150 撮影画像, 171 撮影装置, 172 加圧装置, 181 制御部, 192 加圧部, 221 撮影装置, 222 加圧装置, 231 制御部 12 users, 13 persons, 14, 15 directions, 21 photographing devices, 22 vibration devices, 22A vibration portions, 42 detection portions, 43 control portions, 70 photographed images, 91-1, photographing devices, 92 vibration devices, 112 detection portions, 113 Distance calculation unit, 114 control unit, 122 detection unit, 140, 150 photographed image, 171 imaging device, 172 pressurization device, 181 control unit, 192 pressurization unit, 221 imaging device, 222 pressurization device, 231 control unit
Claims (9)
を備える制御装置。 A control unit that operates a region existing in a direction corresponding to the target object direction with respect to a predetermined position of the tactile unit that stimulates the tactile sensation of the user based on a target object direction that is a direction of the target object with respect to the user; Control device.
ように構成された
請求項1に記載の制御装置。 The control device according to claim 1, wherein the control unit is configured to vibrate the region.
ように構成された
請求項1に記載の制御装置。 The control device according to claim 1, wherein the control unit is configured to pressurize the region.
をさらに備える
請求項1に記載の制御装置。 The control device according to claim 1, further comprising: a detection unit that detects a direction of the target object using a captured image including the target object.
をさらに備え、
前記制御部は、前記距離算出部により算出された前記距離に基づいて、前記触覚部の動作を制御する
ように構成された
請求項1に記載の制御装置。 A distance calculation unit that calculates a distance between the user and the target object using captured images of a plurality of viewpoints including the target object;
The control device according to claim 1, wherein the control unit is configured to control an operation of the tactile unit based on the distance calculated by the distance calculation unit.
ように構成された
請求項5に記載の制御装置。 The control device according to claim 5, wherein the control unit is configured to vibrate the region at a frequency or amplitude determined based on the distance.
ように構成された
請求項5に記載の制御装置。 The control device according to claim 5, wherein the control unit is configured to cause the region to pressurize a pressure determined based on the distance.
ように構成された
請求項1に記載の制御装置。 The control device according to claim 1, wherein the haptic unit is configured to be disposed between the user and the target object.
ユーザに対する対象物体の方向である対象物体方向に基づいて、前記ユーザの触覚を刺激する触覚部の所定の位置に対して前記対象物体方向に対応する方向に存在する領域を動作させる制御ステップ
を含む制御方法。 The control unit
A control step of operating a region existing in a direction corresponding to the target object direction with respect to a predetermined position of a tactile sense unit that stimulates the user's tactile sense based on a target object direction that is a direction of the target object with respect to the user. Control method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229742A JP2018088028A (en) | 2016-11-28 | 2016-11-28 | Control device and control method |
PCT/JP2017/040978 WO2018096988A1 (en) | 2016-11-28 | 2017-11-14 | Control device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229742A JP2018088028A (en) | 2016-11-28 | 2016-11-28 | Control device and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018088028A true JP2018088028A (en) | 2018-06-07 |
Family
ID=62196062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016229742A Pending JP2018088028A (en) | 2016-11-28 | 2016-11-28 | Control device and control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018088028A (en) |
WO (1) | WO2018096988A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111443650A (en) * | 2020-06-15 | 2020-07-24 | 季华实验室 | Terminal for robot blind guiding dog, safety control method of terminal and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001199296A (en) * | 2000-01-17 | 2001-07-24 | Matsushita Electric Ind Co Ltd | Warning device, driver's seat having vibrating body, and mobile body equipped with warning device on vehicle |
JP6564577B2 (en) * | 2015-02-16 | 2019-08-21 | 修一 田山 | Proximity alarm device for automobiles |
-
2016
- 2016-11-28 JP JP2016229742A patent/JP2018088028A/en active Pending
-
2017
- 2017-11-14 WO PCT/JP2017/040978 patent/WO2018096988A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111443650A (en) * | 2020-06-15 | 2020-07-24 | 季华实验室 | Terminal for robot blind guiding dog, safety control method of terminal and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
WO2018096988A1 (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6743691B2 (en) | Display control device, display control method, and computer program | |
US9084038B2 (en) | Method of controlling audio recording and electronic device | |
CN107801045B (en) | Method, device and system for automatically zooming when playing augmented reality scene | |
JP2010081480A (en) | Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program | |
JP7119442B2 (en) | Monitoring system, monitoring method and monitoring program | |
JP2018056971A (en) | Imaging system, image processing device, image processing method, and program | |
US11019448B2 (en) | Providing audio signals in a virtual environment | |
JP2017507400A5 (en) | ||
JP2015149634A (en) | Image display device and method | |
JP2012029209A (en) | Audio processing system | |
TW201742020A (en) | Warning system for virtual reality device and the warning method of the same | |
WO2018198499A1 (en) | Information processing device, information processing method, and recording medium | |
KR20130039522A (en) | Apparatus and method of creating 3 dimension panorama image | |
JP2013135341A5 (en) | ||
CN115086547A (en) | Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium | |
WO2018096988A1 (en) | Control device and control method | |
JP2009171428A (en) | Control method and program for digital camera apparatus and electronic zoom | |
US9143763B2 (en) | Imaging apparatus, imaging method, and computer-readable recording medium | |
JP2017046233A5 (en) | ||
JP2014155083A5 (en) | ||
JPWO2021020150A5 (en) | ||
JP2021009647A (en) | Virtual reality control apparatus, virtual reality head set, virtual reality control method, and program | |
US20200387221A1 (en) | Method, Computer Program and Head Mountable Arrangement for Assisting a Subject to Acquire Spatial Information about an Environment | |
JP7135378B2 (en) | Perimeter monitoring device | |
JP5765160B2 (en) | Stereoscopic imaging device |