JP2021026442A - Information processing device, system, information processing method, and program - Google Patents

Information processing device, system, information processing method, and program Download PDF

Info

Publication number
JP2021026442A
JP2021026442A JP2019142960A JP2019142960A JP2021026442A JP 2021026442 A JP2021026442 A JP 2021026442A JP 2019142960 A JP2019142960 A JP 2019142960A JP 2019142960 A JP2019142960 A JP 2019142960A JP 2021026442 A JP2021026442 A JP 2021026442A
Authority
JP
Japan
Prior art keywords
information
moving body
display device
visibility
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019142960A
Other languages
Japanese (ja)
Inventor
智章 中島
Tomoaki Nakajima
智章 中島
山口 武久
Takehisa Yamaguchi
武久 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019142960A priority Critical patent/JP2021026442A/en
Publication of JP2021026442A publication Critical patent/JP2021026442A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To protect information from peeping in presenting the information in a movable body.SOLUTION: An information processing device includes: positional relation acquisition means for acquiring relative positional relation between a first movable body and an other movable body existing around the first movable body; attribute acquisition means for acquiring an attribute corresponding to the degree of secrecy of information that can be outputted by a display device provided in the first movable body; and visibility change means for changing visibility of the information outputted by the display device. The visibility change means changes the visibility of the information according to the relative positional relation and the degree of secrecy based on the attribute of the information.SELECTED DRAWING: Figure 3

Description

本開示は、移動体に備えられる情報処理装置、システム、方法およびプログラムに関し、特に、表示される画像の視認性を変更する情報処理装置、システム、情報処理方法およびプログラムに関する。 The present disclosure relates to information processing devices, systems, methods and programs provided in a moving body, and more particularly to information processing devices, systems, information processing methods and programs that change the visibility of displayed images.

従来から、セキュリティレベルの制御に関する提案がなされている。例えば、特許文献1(特開2009−116512号公報)は、来訪者が部屋の中のコンピューター端末に接近する場合に、来訪者に機密情報が見られないようにするシステムを開示する。特許文献2(特開2008−9615号公報)は、車両の周辺環境のセンシングデータに基づいて、車両の盗難防止に関するセキュリティレベルを設定する装置を開示する。 Traditionally, proposals have been made regarding security level control. For example, Patent Document 1 (Japanese Unexamined Patent Publication No. 2009-116512) discloses a system that prevents a visitor from seeing confidential information when the visitor approaches a computer terminal in a room. Patent Document 2 (Japanese Unexamined Patent Publication No. 2008-9615) discloses a device for setting a security level for vehicle theft prevention based on sensing data of the surrounding environment of the vehicle.

特開2009−116512号公報Japanese Unexamined Patent Publication No. 2009-116512 特開2008−9615号公報Japanese Unexamined Patent Publication No. 2008-9615

近年、テレワークを主体とした場所の限定を受けない働き方が推奨される。ユーザーはテレワーク時には、会社の機密情報をディスプレイに表示して作業を実施するが、表示された情報が第3者によって覗き見(盗み見)されないようにセキュリティ管理を実施する必要がある。 In recent years, work styles that are mainly teleworked and are not limited to places have been recommended. At the time of teleworking, the user displays confidential company information on the display to perform the work, but it is necessary to implement security management so that the displayed information is not snooped (sniffed) by a third party.

テレワークの一形態を実現するものとして、移動・物流・物販など多目的に活用できるモビリティサービス(MaaS:Mobility as a Service)、および電気自動車(Electric Vehicle)を用いたコンセプトのモデルが提案されている。上記のテレワークが、このようなモデルの自動車内で実施される場合は、他の車両の運転手も含めた第3者による覗き見から、情報を保護する必要がある。 As a form of telework, a mobility as a service (MaaS) that can be used for multiple purposes such as mobility, logistics, and product sales, and a concept model using an electric vehicle have been proposed. When the above teleworking is carried out in a vehicle of such a model, it is necessary to protect the information from peeping by a third party including the driver of another vehicle.

しかしながら、特許文献1と2はセキュリティレベルを管理する技術を開示するが、車両などの移動体内でディスプレイに表示される情報を、他の車両に乗車している人も含めた第3者の盗み見から保護する技術は提案しておらず、上記のニーズに応えることができない。 However, although Patent Documents 1 and 2 disclose a technique for managing the security level, the information displayed on the display in a moving body such as a vehicle is snooped by a third party including a person in another vehicle. We have not proposed a technology to protect from the above, and cannot meet the above needs.

本開示のある目的は、移動体内で情報を提示する際に、情報を覗き見から保護することができる情報処理装置、システム、情報処理方法およびプログラムを提供することである。 An object of the present disclosure is to provide information processing devices, systems, information processing methods and programs capable of protecting information from peeping when presenting information in a moving body.

本開示にかかる情報処理装置は、第1移動体の周辺に存在する他の移動体と第1移動体との相対位置関係を取得する位置関係取得手段と、第1移動体内に備えられる表示装置によって出力され得る情報の機密度を示す属性情報を取得する属性取得手段と、表示装置によって出力される情報の視認性を変更する視認性変更手段と、を備え、視認性変更手段は、情報の視認性を、相対位置関係と当該情報の属性情報が示す前記機密度とに従い変更する。 The information processing device according to the present disclosure includes a positional relationship acquisition means for acquiring a relative positional relationship between another moving body existing around the first moving body and the first moving body, and a display device provided in the first moving body. The visibility changing means includes an attribute acquiring means for acquiring attribute information indicating the sensitivity of information that can be output by the display device and a visibility changing means for changing the visibility of the information output by the display device. The visibility is changed according to the relative positional relationship and the density indicated by the attribute information of the information.

上述の開示おいて、相対位置関係は、第1移動体から他の移動体までの距離と、他の移動体の第1移動体からの方向を含む。 In the above disclosure, the relative positional relationship includes the distance from the first moving body to the other moving body and the direction of the other moving body from the first moving body.

上述の開示おいて、相対位置関係は、さらに、他の移動体が第1移動体に接近している度合いを含む。 In the above disclosure, the relative positional relationship further includes the degree to which the other mobile is close to the first mobile.

上述の開示おいて、他の移動体は、人を含み、周辺を撮像する外部カメラと、外部カメラが撮像した画像に含まれる人の画像から、当該人の視線を検出する手段を、さらに備え、情報処理装置は、人の視線から表示装置で出力される情報が視認される可能性の度合いを取得し、視認性変更手段は、さらに、情報の視認性を、相対位置関係と、機密度と、視認される可能性の度合いとに従い変更する。 In the above disclosure, the other moving object further includes an external camera that includes a person and images the surroundings, and a means for detecting the line of sight of the person from the image of the person included in the image captured by the external camera. The information processing device acquires the degree of possibility that the information output by the display device is visually recognized from the line of sight of a person, and the visibility changing means further determines the visibility of the information, the relative positional relationship, and the sensitivity. And change according to the degree of possibility of being seen.

上述の開示おいて、視認される可能性の度合いは、人が第1移動体を凝視した時間、および当該人の第1移動体に対する視線が検出された頻度に基づいている。 In the above disclosure, the degree of likelihood of being visible is based on the time a person stares at the first moving object and the frequency with which the person's line of sight to the first moving object is detected.

上述の開示おいて、表示装置によって出力される情報の視認性の変更は、当該情報の出力態様の変更を含む。 In the above disclosure, the change in the visibility of the information output by the display device includes the change in the output mode of the information.

上述の開示おいて、第1移動体内には複数の表示装置が備えられ、出力態様の変更は、情報を出力する表示装置の切替えを含む。 In the above disclosure, a plurality of display devices are provided in the first moving body, and the change of the output mode includes switching of the display devices for outputting information.

上述の開示おいて、各複数の表示装置の向きと相対位置関係に基づき、複数の表示装置のうちから情報を出力する表示装置を決定する。 In the above disclosure, a display device that outputs information is determined from among the plurality of display devices based on the orientation and relative positional relationship of each of the plurality of display devices.

上述の開示おいて、第1移動体の内部を撮影する内部カメラをさらに備え、内部カメラが撮像した画像から各表示装置の向きを検出する。 In the above disclosure, an internal camera for photographing the inside of the first moving body is further provided, and the orientation of each display device is detected from the image captured by the internal camera.

上述の開示おいて、相対位置関係は、第1移動体から他の移動体までの距離と、他の移動体の第1移動体からの方向を含み、各表示装置の向きは、当該表示装置が備える画面の向きを含み、表示装置のうち、その画面の向きが他の移動体の第1移動体からの方向と異なる表示装置を、情報を出力する表示装置として決定する。 In the above disclosure, the relative positional relationship includes the distance from the first moving body to the other moving body and the direction of the other moving body from the first moving body, and the orientation of each display device is the display device. Among the display devices including the orientation of the screen provided in the above, a display device whose screen orientation is different from the direction from the first moving body of another moving body is determined as a display device for outputting information.

上述の開示おいて、内部カメラが撮像した、第1移動体内に居る1以上のユーザーの画像から各ユーザーの向きを検出し、各表示装置の向き、相対位置関係および各ユーザーの向きに基づき、情報を出力する表示装置を決定する。 In the above disclosure, the orientation of each user is detected from the images of one or more users in the first moving body taken by the internal camera, and based on the orientation of each display device, the relative positional relationship, and the orientation of each user. Determine the display device to output the information.

上述の開示おいて、複数の表示装置のうち、その画面の向きが他の移動体の第1移動体からの方向と異なり、かつ1以上のユーザーの向きが当該画面に対向する表示装置を、情報を出力する表示装置として決定する。 In the above disclosure, among a plurality of display devices, a display device whose screen orientation is different from the orientation of another moving object from the first moving object and whose orientation of one or more users faces the screen. Determined as a display device that outputs information.

上述の開示おいて、出力態様の変更は、表示装置により出力される情報の輝度の変更を含む。 In the above disclosure, the change in the output mode includes the change in the brightness of the information output by the display device.

上述の開示おいて、第1移動体内には、情報を印刷する画像処理装置が備えられ、出力態様の変更は、情報を画像処理装置によって印刷することを含む。 In the above disclosure, the first moving body is provided with an image processing device for printing information, and the change in the output mode includes printing the information by the image processing device.

上述の開示おいて、第1移動体は窓を備え、視認性変更手段は、相対位置関係と情報の属性に基づく機密度とに従い窓のガラスの透過率を変更する。 In the above disclosure, the first moving body comprises a window, and the visibility changing means changes the transmittance of the window glass according to the relative positional relationship and the density based on the attribute of information.

上述の開示おいて、周辺の他の移動体をセンシングするセンサーを備え、位置関係取得手段は、各移動体の位置を管理するサーバーから受信する位置情報、または、センサーの出力から、相対位置関係を取得する。 In the above disclosure, a sensor that senses other moving objects in the vicinity is provided, and the positional relationship acquisition means has a relative positional relationship from the position information received from the server that manages the position of each moving object or the output of the sensor. To get.

上述の開示おいて、視認性は、他の移動体から第1移動体内の表示装置で出力される情報を、視覚によって捉えることができる容易性を含む。 In the above disclosure, visibility includes the ease with which information output from another moving body by the display device in the first moving body can be visually grasped.

本開示にかかるシステムは、移動体の位置を管理するサーバーと、サーバーと通信する第1移動体に備えられる情報処理装置と、を含み、情報処理装置は、第1移動体の周辺に存在する他の移動体と第1移動体との相対位置関係をサーバーから受信する位置関係取得手段と、第1移動体内に備えられる表示装置によって出力され得る情報の機密度に対応する属性を取得する属性取得手段と、表示装置によって出力される情報の視認性を変更する視認性変更手段と、を備え、視認性変更手段は、情報の視認性を、相対位置関係と当該情報の属性に基づく機密度とに従い変更する。 The system according to the present disclosure includes a server that manages the position of the mobile body and an information processing device provided in the first mobile body that communicates with the server, and the information processing device exists in the vicinity of the first mobile body. Attribute to acquire the attribute corresponding to the sensitivity of the information that can be output by the positional relationship acquisition means for receiving the relative positional relationship between the other moving body and the first moving body from the server and the display device provided in the first moving body. The visibility changing means includes an acquisition means and a visibility changing means for changing the visibility of the information output by the display device, and the visibility changing means determines the visibility of the information based on the relative positional relationship and the attributes of the information. Change according to.

本開示にかかる情報処理方法は、コンピューターが実行する情報処理方法であって、第1移動体の周辺に存在する他の移動体と第1移動体との相対位置関係を取得するステップと、第1移動体内に備えられる表示装置によって出力され得る情報の機密度を示す属性情報を取得するステップと、表示装置によって出力される情報の視認性を変更するステップと、を備え、視認性を変更するステップでは、情報の視認性を、相対位置関係と当該情報の属性情報が示す機密度とに従い変更する。 The information processing method according to the present disclosure is an information processing method executed by a computer, and includes a step of acquiring a relative positional relationship between another moving body existing around the first moving body and the first moving body, and a first step. (1) The visibility is changed by including a step of acquiring attribute information indicating the sensitivity of information that can be output by a display device provided in the moving body and a step of changing the visibility of the information output by the display device. In the step, the visibility of the information is changed according to the relative positional relationship and the sensitivity indicated by the attribute information of the information.

本開示は、上記の情報処理方法をコンピューターに実行させるためのプログラムを提供する。 The present disclosure provides a program for causing a computer to execute the above information processing method.

本開示によれば、移動体内で情報を提示する際に、情報を覗き見から保護することができる。 According to the present disclosure, when presenting information in a moving body, the information can be protected from peeping.

本実施の形態に係る情報処理装置30を備える車両100と、その周辺環境を模式的に示す図である。It is a figure which shows typically the vehicle 100 which includes the information processing apparatus 30 which concerns on this embodiment, and the surrounding environment. 本実施の形態にかかる情報処理装置30のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the information processing apparatus 30 which concerns on this embodiment. 本実施の形態にかかる情報処理装置30が備えるモジュール構成を模式的に示す図である。It is a figure which shows typically the module structure which the information processing apparatus 30 which concerns on this embodiment includes. 本実施の形態にかかる機密度テーブル620の一例を模式的に示す図である。It is a figure which shows typically an example of the density table 620 which concerns on this Embodiment. 本実施の形態にかかる漏洩可能性テーブル630の一例を模式的に示す図である。It is a figure which shows typically an example of the leakage possibility table 630 which concerns on this embodiment. 本実施の形態にかかる画像ファイル640の一例を模式的に示す図である。It is a figure which shows typically an example of the image file 640 which concerns on this Embodiment. 本実施の形態にかかる指標値テーブル650の一例を模式的に示す図である。It is a figure which shows typically an example of the index value table 650 which concerns on this embodiment. 本実施の形態にかかる処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on this Embodiment. 本実施の形態にかかる処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on this Embodiment. 本実施の形態にかかる車両100の室内の一例を模式的に示す図である。It is a figure which shows typically an example of the interior of the vehicle 100 which concerns on this embodiment. 本実施の形態にかかる(第1のケース)において視認性が調整された状態を模式的に示す図である。It is a figure which shows typically the state which the visibility was adjusted in (the first case) which concerns on this embodiment. 本実施の形態にかかる車両100の室内の他の例を模式的に示す図である。It is a figure which shows the other example of the interior of the vehicle 100 which concerns on this embodiment schematically. 本実施の形態にかかる(第2のケース)において視認性が調整された状態を模式的に示す図である。It is a figure which shows typically the state which the visibility was adjusted in (the second case) which concerns on this embodiment. 本実施の形態にかかる車両100の室内の他の例を模式的に示す図である。It is a figure which shows the other example of the interior of the vehicle 100 which concerns on this embodiment schematically. 本実施の形態にかかる(第3のケース)において視認性が調整された状態を模式的に示す図である。It is a figure which shows typically the state which the visibility was adjusted in (the third case) which concerns on this embodiment. 本実施の形態にかかる情報処理装置30を備えるネットワークシステムの構成を示す図である。It is a figure which shows the structure of the network system which includes the information processing apparatus 30 which concerns on this embodiment. 本実施の形態にかかる管理サーバー710のハードウェア構成の一例を概略的に示す図である。It is a figure which shows typically an example of the hardware configuration of the management server 710 which concerns on this Embodiment.

本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated.

<概要>
図1は、本実施の形態に係る情報処理装置30を備える車両100と、その周辺環境を模式的に示す図である。本実施の形態では、「移動体」は、車両、自転車、ロボット、パーソナルモビリティ、および人(後述する乗員111)等のうち少なくとも1つが含まれ得る。車両100は、「第1移動体」の実施例である。情報処理装置30は、「情報処理装置」の一実施例であって、例えば、汎用的なアーキテクチャに従うハードウェア(例えば、汎用コンピュータ)を用いて実現される。以下では、情報処理装置30を、装置30とも略称する。
<Overview>
FIG. 1 is a diagram schematically showing a vehicle 100 including the information processing device 30 according to the present embodiment and its surrounding environment. In the present embodiment, the "moving body" may include at least one of a vehicle, a bicycle, a robot, a personal mobility, a person (an occupant 111 described later), and the like. The vehicle 100 is an embodiment of the "first mobile body". The information processing device 30 is an embodiment of the "information processing device", and is realized by using, for example, hardware (for example, a general-purpose computer) that follows a general-purpose architecture. Hereinafter, the information processing device 30 is also abbreviated as the device 30.

本実施の形態は、例えば、ユーザーが、自動運転中の移動体の車内をモビリティオフィスとして利用して仕事をするケースに適用することができる。具体的には、「第1移動体」に相当する車両100は、基本的にタクシーと同様、公共の交通手段に相当し、無人で自動運転される。自動運転の際には、ユーザーは乗車時に、例えば車内の操作パネル、音声入力部(マイク)、ユーザーの携帯端末等を操作して行先を装置30に設定すると、行先に向かって自動運転が開始される。 The present embodiment can be applied to, for example, a case where a user works by using the inside of a moving body during automatic driving as a mobility office. Specifically, the vehicle 100 corresponding to the "first moving body" basically corresponds to public transportation like a taxi, and is automatically driven unmanned. In the case of automatic driving, when the user sets the destination to the device 30 by operating the operation panel in the car, the voice input unit (microphone), the user's mobile terminal, etc. at the time of boarding, the automatic driving starts toward the destination. Will be done.

図1を参照して、車両100の周辺には1または複数の車両110が走行する。車両110と同一車線には、車両100の前後に、それぞれ、車両110が走行し、さらに、車両100に隣接する車線にはオートバーイの車両110が走行する。車両110は、例えば運転手などの乗員111が乗車するが、乗員111は運転手に限定されず他の同乗者も含む。実施の形態にかかる車両100および車両110は、無人による自動運転車であってもよい。また、車両100が走行する道路は、片側一車線の対面通行道路であってもよく、走行する道路の種類は限定されない。 With reference to FIG. 1, one or more vehicles 110 travel around the vehicle 100. In the same lane as the vehicle 110, the vehicle 110 runs in front of and behind the vehicle 100, respectively, and the vehicle 110 of the auto bai runs in the lane adjacent to the vehicle 100. The vehicle 110 is boarded by an occupant 111 such as a driver, but the occupant 111 is not limited to the driver and includes other passengers. The vehicle 100 and the vehicle 110 according to the embodiment may be unmanned autonomous vehicles. Further, the road on which the vehicle 100 travels may be a two-way road with one lane on each side, and the type of road on which the vehicle 100 travels is not limited.

車両100は、移動可能な車内において構築されたオフィス環境であるモビィリティオフィスを提供し、さらに、装置30が、主に、モビィリティオフィスの制御を司る。モビィリティオフィスを利用することで、ユーザーは、車両100で移動しながら、車内で会議などの作業(テレワーク)を行うことができる。なお、モビィリティオフィスで実施される作業は会議に限定されない。 The vehicle 100 provides a mobility office, which is an office environment constructed in a movable vehicle, and a device 30 mainly controls the mobility office. By using the mobility office, the user can perform work (telework) such as a meeting in the vehicle while moving in the vehicle 100. The work carried out in the mobility office is not limited to meetings.

車両100において、会議が実施される場合、装置30は、会議用資料などの情報を、車両100内に備えられるディスプレイ372に画像(絵、文字、映像(動画、静止画)など)で表示する。ディスプレイ372に表示される画像は、車両100の窓378を介して他の移動体(他の車両110、またはその乗員111など)から視認可能であるから、情報が覗き見されるリスクがある。本実施の形態では、ディスプレイ372は、プロジェクタによって画像を表示されるディスプレイ(スクリーンなど)も含み得る。 When a conference is held in the vehicle 100, the device 30 displays information such as conference materials as images (pictures, characters, videos (moving images, still images), etc.) on the display 372 provided in the vehicle 100. .. Since the image displayed on the display 372 is visible from another moving body (such as another vehicle 110 or its occupant 111) through the window 378 of the vehicle 100, there is a risk that the information will be peeped. In this embodiment, the display 372 may also include a display (such as a screen) on which an image is displayed by a projector.

そこで、本実施の形態では、装置30は、自移動体(車両100)の周辺に存在する他の移動体と自移動体との相対位置関係の情報を取得し(ステップR1)、ディスプレイ372に表示されている情報の属性であって、機密の度合いを示す機密度を示す属性情報を取得し(ステップR2)、取得された相対位置関係と属性情報が示す機密度とに従い、ディスプレイ372に表示される情報の視認性を変更する(ステップR3)。 Therefore, in the present embodiment, the device 30 acquires information on the relative positional relationship between the self-moving body and another moving body existing around the self-moving body (vehicle 100) (step R1), and displays 372 on the display 372. Attribute information indicating the degree of confidentiality, which is an attribute of the displayed information, is acquired (step R2), and is displayed on the display 372 according to the acquired relative positional relationship and the sensitivity indicated by the attribute information. The visibility of the information to be displayed is changed (step R3).

例えば、ディスプレイ372に表示される情報が窓378を介して外部から視ることが可能な場合には、装置30は、相対位置関係と機密度に基づき、表示される情報の視認性を低下させる。これにより、ディスプレイ372に表示される情報が窓378を介して外部の他の移動体から覗き見(盗み見)されるリスクを回避することができる。 For example, when the information displayed on the display 372 can be viewed from the outside through the window 378, the device 30 reduces the visibility of the displayed information based on the relative positional relationship and the density. .. As a result, it is possible to avoid the risk that the information displayed on the display 372 is snooped (sniffed) by another moving body outside through the window 378.

本実施の形態では、視認性は、視覚によって情報を捉えること(または確認すること)ができる容易性を表す概念を示す。この視認性は、より特定的には、自移動体の外部(例えば車外)から第3者(他の移動体の乗員111など)が当該自移動体内(例えば車内)で表示される情報を、視覚によって捉えることができる容易性を表す概念を示す。この視認性が低下すると、可読性または判読性も低下するから、情報を覗き見から効果的に保護することができる。 In the present embodiment, visibility represents a concept that expresses the ease with which information can be visually perceived (or confirmed). More specifically, this visibility provides information displayed from the outside of the self-moving body (for example, outside the vehicle) by a third party (such as the occupant 111 of another moving body) inside the self-moving body (for example, inside the vehicle). Shows a concept that expresses the ease that can be visually perceived. When this visibility is reduced, the readability or readability is also reduced, so that the information can be effectively protected from peeping.

以下、具体的な実施例を説明する。
<情報処理装置30のハードウェア構成>
図2は、本実施の形態にかかる情報処理装置30のハードウェア構成の一例を示す図である。図2を参照して、装置30は、車両100の走行を制御するための走行制御システム50と通信インターフェース40を介して接続され得る。走行制御システム50は、車輪のモーターの駆動機構を含むなど周知の構成を備えるので、詳細な説明は繰返さない。ここでは、装置30は、走行制御システム50と通信可能に構成されるが、走行制御システム50と通信せずスタンドアローンに構成されてもよい。
Specific examples will be described below.
<Hardware configuration of information processing device 30>
FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 30 according to the present embodiment. With reference to FIG. 2, the device 30 may be connected to the travel control system 50 for controlling the travel of the vehicle 100 via the communication interface 40. Since the travel control system 50 has a well-known configuration such as including a drive mechanism for a wheel motor, detailed description will not be repeated. Here, the device 30 is configured to be communicable with the travel control system 50, but may be configured standalone without communicating with the travel control system 50.

装置30は、CPU(Central Processing Unit)300、プログラムおよびデータを格納する記憶装置、メモリインターフェース340、GPS(Global Positioning System)受信機350、ネットワークインターフェース360、および通信回路370を備える。記憶装置は、HDD(Hard Disk Drive)310、ROM(Read Only Memory)320およびRAM(Random Access Memory)330を含む。 The device 30 includes a CPU (Central Processing Unit) 300, a storage device for storing programs and data, a memory interface 340, a GPS (Global Positioning System) receiver 350, a network interface 360, and a communication circuit 370. The storage device includes an HDD (Hard Disk Drive) 310, a ROM (Read Only Memory) 320, and a RAM (Random Access Memory) 330.

CPU300は、記憶装置に格納されているプログラムをRAM330に展開し、展開されたプログラムを実行することにより各部を制御する。 The CPU 300 expands the program stored in the storage device into the RAM 330, and controls each unit by executing the expanded program.

メモリインターフェース340は、記憶媒体345が着脱自在に装着されて、装着された記憶媒体345からデータまたはプログラムを読出し、または記憶媒体345にデータまたはプログラムを書込むドライバ回路を含む。記憶媒体345は、CPU300、その他装置、機械等が、そこに記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的または化学的作用によって蓄積する媒体である。 The memory interface 340 includes a driver circuit to which the storage medium 345 is detachably mounted and reads data or a program from the mounted storage medium 345 or writes data or a program to the storage medium 345. The storage medium 345 transfers the information of the program or the like electrically, magnetically, optically, mechanically or chemically so that the CPU 300, other devices, the machine or the like can read the information of the program or the like recorded therein. It is a medium that accumulates by the action.

GPS受信機350は、後述するGPS衛星700からの信号を受信し、当該信号を用いて所与の演算を実行することによって、車両100の位置を検出する。GPS受信機350は、検出された位置の情報をCPU31へ出力する。 The GPS receiver 350 detects the position of the vehicle 100 by receiving a signal from the GPS satellite 700, which will be described later, and executing a given calculation using the signal. The GPS receiver 350 outputs the detected position information to the CPU 31.

ネットワークインターフェース360は、インターネットを含む外部のネットワークと装置30との通信を司る回路、たとえばNIC(Network Interface Card)を備えて構成される。 The network interface 360 is configured to include a circuit that controls communication between an external network including the Internet and the device 30, for example, a NIC (Network Interface Card).

ネットワークインターフェース360は、ディスプレイ372への表示対象となり得る情報を含むコンテンツ610を外部のサーバーなどから受信する。コンテンツ610は、当該コンテンツの機密度を示す属性情報609が付加されている。具体的には、本実施の形態では、ユーザーは、装置30を経由してユーザの会社内のサーバーにVPV(Virtual Private Network)等で接続し、接続先の会社内サーバーから必要なコンテンツ610を選択し、選択されたコンテンツ610をVPNおよび装置30のネットワークインターフェース360を経由してユーザー端末371などにダウンロードし、ダウンロードされたコンテンツ610をディスプレイ372に表示する。なお、コンテンツ610の取得経路は、装置30を経由する経路に限定されない。例えば、ユーザー端末371が、装置30を経由せずに、無線で会社内サーバと通信し、会社内サーバーからユーザー端末371にコンテンツ610がダウンロードされてもよい。 The network interface 360 receives content 610 including information that can be displayed on the display 372 from an external server or the like. Attribute information 609 indicating the sensitivity of the content is added to the content 610. Specifically, in the present embodiment, the user connects to the server in the user's company via the device 30 by VPV (Virtual Private Network) or the like, and obtains the necessary content 610 from the server in the company to which the user is connected. The selected content 610 is downloaded to the user terminal 371 or the like via the VPN and the network interface 360 of the device 30, and the downloaded content 610 is displayed on the display 372. The acquisition route of the content 610 is not limited to the route via the device 30. For example, the user terminal 371 may wirelessly communicate with the company server without going through the device 30, and the content 610 may be downloaded from the company server to the user terminal 371.

また、本実施の形態では、上記の外部のサーバーはWebサーバーを含み得る。その場合、コンテンツ610はWebページの情報を含み得る。 Further, in the present embodiment, the above-mentioned external server may include a Web server. In that case, the content 610 may include information on the Web page.

通信回路370は、装置30が後述する周辺機器と通信するための回路である。たとえが、通信回路370は、イーサネット(登録商標)、(wifi(登録商標)、Bluetooth(登録商標などの有線または無線を含む各種ネットワーク900を介して、装置30に周辺機器を接続する。 The communication circuit 370 is a circuit for the device 30 to communicate with a peripheral device described later. For example, the communication circuit 370 connects peripheral devices to the device 30 via various networks 900 including wired or wireless such as Ethernet (registered trademark), (wifi (registered trademark), Bluetooth (registered trademark).

<情報処理装置30のモジュール構成>
図3は、本実施の形態にかかる情報処理装置30が備えるモジュール構成を模式的に示す図である。図3を参照して、CPU300は、装置30の周辺機器として、車両100の外部周辺を撮影可能な車外カメラ3741,3742,3743、車両100の内部を撮影可能な車内カメラ375、車両100の周辺の対象を検出する1または複数の近接センサー376、ディスプレイ372、窓378から車内への入射光量を調整する偏光調整装置373、車両100に乗車するユーザーが携帯するコンピューターなどのユーザー端末371、プリンターまたはコピー機またはそれらの複合機であるMFP(Multi-Function Peripherals)377を含む。MFP377は、ディスプレイ372に表示される情報(コンテンツ610)を印刷出力する画像処理装置の一実施例である。近接センサー376は、自移動体(車両100)と他の移動体の間の距離と方向を検出し、検出した距離と方向を出力する。検出される方向は、車両100の向き(すなわち進行方向に一致する向き)に対して、前方(進行方向)、後方(進行方向とは逆方向)、右側、および左側を含み得る。
<Module configuration of information processing device 30>
FIG. 3 is a diagram schematically showing a module configuration included in the information processing apparatus 30 according to the present embodiment. With reference to FIG. 3, as peripheral devices of the device 30, the CPU 300 includes external cameras 3741, 3742, 3743 capable of photographing the external periphery of the vehicle 100, an in-vehicle camera 375 capable of photographing the inside of the vehicle 100, and peripherals of the vehicle 100. One or more proximity sensors 376, a display 372, a polarization adjusting device 373 that adjusts the amount of incident light from the window 378 into the vehicle, a user terminal 371 such as a computer carried by a user in the vehicle 100, a printer, or It includes an MFP (Multi-Function Peripherals) 377 which is a copier or a multifunction device thereof. The MFP 377 is an embodiment of an image processing device that prints out information (content 610) displayed on the display 372. The proximity sensor 376 detects the distance and direction between the self-moving body (vehicle 100) and another moving body, and outputs the detected distance and direction. The detected directions may include forward (traveling direction), rearward (opposite the traveling direction), right side, and left side with respect to the direction of the vehicle 100 (that is, the direction corresponding to the traveling direction).

CPU300は、通信回路370に対応の通信制御部420を介して、これら周辺機器と情報(データまたは信号)を遣り取りする。装置30は、装置30に対するユーザー操作を受付けて、受付けたユーザー操作が示す指令に従い動作する。本実施の形態では、装置30は、図示しない入力デバイスを介してユーザー操作を受付けるが、ユーザー端末371との通信を介してユーザー操作に基づく指令を受付けることもできる。なお、ユーザー端末371からユーザー操作を行う場合は装置30のデスクトップ画面をユーザー端末371に表示させることで装置30を操作することが可能となる。車外カメラ3741,3742,3743は、取り付け位置(すなわち撮像範囲)が異なるが、それぞれ、同様の機能を備えるので、これらを区別しない場合には車外カメラ374と総称する。なお、車内カメラ375も1台に限定されず、それぞれの取り付け位置(すなわち撮像範囲)が異なる複数台であってもよい。 The CPU 300 exchanges information (data or signals) with these peripheral devices via the communication control unit 420 corresponding to the communication circuit 370. The device 30 receives a user operation on the device 30 and operates according to a command indicated by the received user operation. In the present embodiment, the device 30 receives a user operation via an input device (not shown), but can also receive a command based on the user operation via communication with the user terminal 371. When the user is operated from the user terminal 371, the device 30 can be operated by displaying the desktop screen of the device 30 on the user terminal 371. Although the external cameras 3741, 3742, and 3743 have different mounting positions (that is, the imaging range), they have the same functions. Therefore, when they are not distinguished, they are collectively referred to as the external cameras 374. The number of in-vehicle cameras 375 is not limited to one, and may be a plurality of cameras having different mounting positions (that is, imaging ranges).

車外カメラ374および車内カメラ375は、例えばCCD(Charge Coupled Device)を備えて構成される。これらカメラは、3Dカメラであってもよい。近接センサー376は、例えば光電センサーを含んで構成される。ディスプレイ372は、例えば液晶ディスプレイを含む。 The outside camera 374 and the inside camera 375 are configured to include, for example, a CCD (Charge Coupled Device). These cameras may be 3D cameras. The proximity sensor 376 includes, for example, a photoelectric sensor. The display 372 includes, for example, a liquid crystal display.

装置30が備える格納部500には、CPU300がアクセス(読み書き)可能に各種プログラムおよびデータが格納される。格納部500は、HDD310、ROM320、RAM330および記憶媒体345の少なくとも1つを備えて構成される。格納部500は、OS(Operating System)を含むシステムプログラム400およびシステムプログラムものもとでCPU300により実行されるアプリケーションプログラム501を含む。アプリケーションプログラム501は、機密度取得プログラム510、近接度検出プログラム511、カメラ画像分析プログラム512、移動体タグ生成プログラム513、相対位置関係算出プログラム514、描画プログラム516、画像出力制御プログラム517、調整方法決定プログラム518および透過率制御プログラム519を含む。 Various programs and data are stored in the storage unit 500 included in the device 30 so that the CPU 300 can access (read / write). The storage unit 500 includes at least one of HDD 310, ROM 320, RAM 330, and storage medium 345. The storage unit 500 includes a system program 400 including an OS (Operating System) and an application program 501 executed by the CPU 300 under the system program. The application program 501 includes a density acquisition program 510, a proximity detection program 511, a camera image analysis program 512, a moving object tag generation program 513, a relative positional relationship calculation program 514, a drawing program 516, an image output control program 517, and an adjustment method determination. Includes program 518 and transmission control program 519.

格納部500は、さらに、機密度テーブル620、漏洩可能性テーブル630、画像ファイル640および指標値テーブル650を含む。 The storage unit 500 further includes a density table 620, a leakage possibility table 630, an image file 640, and an index value table 650.

CPU300がアプリケーションプログラム501の各プログラムを実行することにより、当該プログラムに対応のモジュールが実現される。例えば、モジュールとして、機密度取得プログラム510に対応の機密度取得部410、近接度検出プログラム511に対応の近接度検出部411、カメラ画像分析プログラム512に対応のカメラ画像分析部412、移動体タグ生成プログラム513に対応の移動体タグ生成部413、相対位置関係算出プログラム514に対応の相対位置関係算出部414、視線検出部415、描画プログラム516に対応の描画部416、画像出力制御プログラム517に対応の画像出力制御部417、調整方法決定プログラム518に対応の調整方法決定部418、および透過率制御プログラム519に対応の透過率制御部419を含む。相対位置関係算出部414は、「位置関係取得手段」の一実施例である。CPU300は、移動体タグ生成部413、相対位置関係算出部414および視線検出部415を備える処理部430を有する。 When the CPU 300 executes each program of the application program 501, a module corresponding to the program is realized. For example, as modules, the density acquisition unit 410 corresponding to the density acquisition program 510, the proximity detection unit 411 corresponding to the proximity detection program 511, the camera image analysis unit 412 corresponding to the camera image analysis program 512, and the moving object tag. The moving body tag generation unit 413 corresponding to the generation program 513, the relative positional relationship calculation unit 414 corresponding to the relative positional relationship calculation program 514, the line-of-sight detection unit 415, the drawing unit 416 corresponding to the drawing program 516, and the image output control program 517. The corresponding image output control unit 417, the adjustment method determination unit 418 corresponding to the adjustment method determination program 518, and the transmission rate control unit 419 corresponding to the transmission rate control program 519 are included. The relative positional relationship calculation unit 414 is an embodiment of the “positional relationship acquisition means”. The CPU 300 has a processing unit 430 including a mobile tag generation unit 413, a relative positional relationship calculation unit 414, and a line-of-sight detection unit 415.

描画部416は、ユーザーが指定したコンテンツ610を通信制御部420を介してユーザー端末371などから受信し、受信したコンテンツ610を表す画像をディスプレイ372に表示するための描画データを生成する。画像出力制御部417は、描画部416からの描画データに基づきディスプレイ372を制御する表示制御データ615を生成し、通信制御部420を介して、ディスプレイ372に出力する。これにより、ディスプレイ372は、表示制御データ615に従いコンテンツ610の画像を表示する。 The drawing unit 416 receives the content 610 specified by the user from the user terminal 371 or the like via the communication control unit 420, and generates drawing data for displaying the image representing the received content 610 on the display 372. The image output control unit 417 generates display control data 615 that controls the display 372 based on the drawing data from the drawing unit 416, and outputs the display control data 615 to the display 372 via the communication control unit 420. As a result, the display 372 displays the image of the content 610 according to the display control data 615.

カメラ画像分析部412は、車外カメラ374からの画像を分析する第1分析部41および車内カメラ375からの画像を分析する第2分析部42を含む。カメラ画像分析部412は、画像の分析結果を処理部430に出力する。画像の分析処理については後述する。 The camera image analysis unit 412 includes a first analysis unit 41 that analyzes an image from the outside camera 374 and a second analysis unit 42 that analyzes an image from the in-vehicle camera 375. The camera image analysis unit 412 outputs the image analysis result to the processing unit 430. The image analysis process will be described later.

近接度検出部411は、近接センサー376の出力から車両100に対する周辺の他の移動体の近接の度合いである近接度を判定する。例えば、近接度検出部411は、近接センサー376から出力される周辺の他の移動体との距離を閾値と比較し、比較結果が(距離<閾値)を示すとき近接度が高いと検出し、そうでないとき近接度は低いと検出する。 The proximity detection unit 411 determines the proximity, which is the degree of proximity of other moving objects in the vicinity to the vehicle 100, from the output of the proximity sensor 376. For example, the proximity detection unit 411 compares the distance to other moving objects in the vicinity output from the proximity sensor 376 with the threshold value, and detects that the proximity is high when the comparison result indicates (distance <threshold value). If not, the proximity is detected as low.

移動体タグ生成部413は、カメラ画像分析部412の第1分析部41から出力される移動体の画像のうち、近接度が高いと判定されたときに撮像された移動体の画像を入力し、当該画像を識別するための後述するタグ642を生成する。移動体タグ生成部413は、第1分析部41から入力する画像の特徴量毎に、タグ642を生成する。これにより、移動体タグ生成部413は、同一または類似の特徴量を有する画像群毎に、同一のタグ642を付与することができる。 The moving body tag generation unit 413 inputs an image of the moving body captured when it is determined that the proximity is high among the images of the moving body output from the first analysis unit 41 of the camera image analysis unit 412. , Generates a tag 642, which will be described later, for identifying the image. The mobile tag generation unit 413 generates a tag 642 for each feature amount of the image input from the first analysis unit 41. As a result, the mobile tag generation unit 413 can assign the same tag 642 to each image group having the same or similar feature amount.

相対位置関係算出部414は、近接度検出部411によって近接度が高いと判定された移動体(すなわち車両100の周辺に存在する他の移動体)と自車両100との相対位置関係612を取得する。本実施の形態では、相対位置関係は、車両100から他の移動体までの距離と、他の移動体の車両100からの方向を含む。 The relative positional relationship calculation unit 414 acquires the relative positional relationship 612 between the moving body (that is, another moving body existing around the vehicle 100) determined by the proximity detection unit 411 to have a high proximity and the own vehicle 100. To do. In the present embodiment, the relative positional relationship includes the distance from the vehicle 100 to the other moving body and the direction of the other moving body from the vehicle 100.

機密度取得部410は、「属性取得手段」の一実施例である。機密度取得部410は、描画部416によってディスプレイ372に表示されているコンテンツ610の機密度を示す属性情報609を取得し、取得された属性情報609から機密度611を取得する。具体的には、例えば、ユーザー操作により装置30でコンテンツ610を対応するアプリケーションで開く(表示する)際に、機密度取得部410は、開かれたコンテンツ610のヘッダ内の予め付加されている機密度を示す属性情報609(フラグ等)を取得し、属性情報609から、後述の図4の機密度611のレベル(度合い)を判定する。または、機密度取得部410は、開かれたコンテンツ610のファイル名を解析し、解析結果に基づき、ファイル名に含まれる機密度を示す属性情報609(例えば、「機密」または「秘」等の文字列)を抽出し、抽出した属性情報609から機密度のレベルを判定する。 The density acquisition unit 410 is an embodiment of the “attribute acquisition means”. The machine density acquisition unit 410 acquires the attribute information 609 indicating the machine density of the content 610 displayed on the display 372 by the drawing unit 416, and acquires the machine density 611 from the acquired attribute information 609. Specifically, for example, when the device 30 opens (displays) the content 610 with the corresponding application by user operation, the density acquisition unit 410 is a machine added in advance in the header of the opened content 610. Attribute information 609 (flag, etc.) indicating the density is acquired, and the level (degree) of the density 611 in FIG. 4 described later is determined from the attribute information 609. Alternatively, the sensitivity acquisition unit 410 analyzes the file name of the opened content 610, and based on the analysis result, the attribute information 609 indicating the sensitivity included in the file name (for example, "confidential" or "secret", etc. (Character string) is extracted, and the level of sensitivity is determined from the extracted attribute information 609.

調整方法決定部418は、ディスプレイ372に表示されるコンテンツ610(情報)の視認性を調整する。視認性の調整は、情報の表示装置(ディスプレイ372)の切替を含む。視認性の調整は、また、機密度取得部410からの機密度611と相対位置関係算出部414からの相対位置関係612とに従い、ディスプレイ372に表示されるコンテンツ610(情報)の視認性を調整するための調整量613を決定し、決定された調整量613を出力する。 The adjustment method determination unit 418 adjusts the visibility of the content 610 (information) displayed on the display 372. The adjustment of visibility includes switching of an information display device (display 372). The visibility is also adjusted according to the density 611 from the density acquisition unit 410 and the relative position 612 from the relative position calculation unit 414 to adjust the visibility of the content 610 (information) displayed on the display 372. The adjustment amount 613 for the determination is determined, and the determined adjustment amount 613 is output.

画像出力制御部417は、調整方法決定部418からの調整量613に従い、画像の輝度を変更し、変更後の輝度を有した画像を表示させるための表示制御データ615を生成し出力する。また、透過率制御部419は、調整方法決定部418からの調整量613に従い、光の透過率614を決定し、通信制御部420を介して偏光調整装置373に出力する。偏光調整装置373は透過率614に従い入射光量を調整するように動作するが、この調整方法については後述する。このように、機密度611と相対位置関係612とに従い、ディスプレイ372に表示さる画像の輝度を低下させて画像を暗くする、または、窓378を介して外部から車内への入射光量を低減することが可能となる。これにより、他の移動体から窓378を介して車内のディスプレイ372に表示されるコンテンツ610(情報)が覗き見されるのを防止することができる。 The image output control unit 417 changes the brightness of the image according to the adjustment amount 613 from the adjustment method determination unit 418, and generates and outputs display control data 615 for displaying the image having the changed brightness. Further, the transmittance control unit 419 determines the light transmittance 614 according to the adjustment amount 613 from the adjustment method determination unit 418, and outputs the light transmittance to the polarization adjusting device 373 via the communication control unit 420. The polarization adjusting device 373 operates so as to adjust the amount of incident light according to the transmittance 614, and the adjusting method will be described later. In this way, according to the density 611 and the relative positional relationship 612, the brightness of the image displayed on the display 372 is reduced to darken the image, or the amount of incident light from the outside to the inside of the vehicle is reduced through the window 378. Is possible. As a result, it is possible to prevent the content 610 (information) displayed on the display 372 in the vehicle from being peeped from another moving body through the window 378.

なお、ディスプレイ372の表示画像の輝度の調整に代えて、ディスプレイ372自体の画面の明るさを調整量613に従い調整してもよく、または両者の組合せで調整してもよい。覗き見防止のために輝度が変更されるが、変更後の輝度は、車両100内のユーザーがディスプレイ372の表示情報を視認可能な程度である。 Instead of adjusting the brightness of the display image of the display 372, the brightness of the screen of the display 372 itself may be adjusted according to the adjustment amount 613, or may be adjusted by a combination of both. The brightness is changed to prevent peeping, but the changed brightness is such that the user in the vehicle 100 can visually recognize the display information on the display 372.

図3には、CPU300がプログラムを実行することで必要な機能が提供される構成例を示したが、これらの提供される機能の一部または全部を、専用のハードウェア回路(例えば、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)など)を用いて実装してもよい。あるいは、装置30の主要部を、汎用的なアーキテクチャに従うハードウェアを用いて実現してもよい。この場合には、仮想化技術を用いて、用途の異なる複数のOSを並列的に実行させるとともに、各OS上で必要なプログラムを実行させるようにしてもよい。 FIG. 3 shows a configuration example in which necessary functions are provided by the CPU 300 executing a program, and some or all of these provided functions are provided by a dedicated hardware circuit (for example, an ASIC (for example)). It may be implemented using Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). Alternatively, the main part of the device 30 may be implemented using hardware that follows a general-purpose architecture. In this case, virtualization technology may be used to execute a plurality of OSs having different uses in parallel, and to execute a necessary program on each OS.

<機密度テーブル620の一例>
図4は、本実施の形態にかかる機密度テーブル620の一例を模式的に示す図である。図4を参照して、機密度テーブル620は、機密度611が示す度合いと、度合いのそれぞれに対応した透過率614を有する。例えば、機密度611が最も高い「極秘」であれば透過率614は入射光量がゼロとなる「0%」を示し、機密度611が最も低い「なし」であれば透過率614は入射光量が適度となる「50%」を示す。このように、機密度611が高くなるほど入射光量が少なくなるように透過率614が設定される。
<Example of density table 620>
FIG. 4 is a diagram schematically showing an example of the density table 620 according to the present embodiment. With reference to FIG. 4, the density table 620 has a degree indicated by the machine density 611 and a transmittance 614 corresponding to each degree. For example, if the density 611 is "top secret", the transmittance 614 indicates "0%" at which the amount of incident light is zero, and if the density 611 is "none", the transmittance 614 is the amount of incident light. Indicates an appropriate "50%". In this way, the transmittance 614 is set so that the amount of incident light decreases as the density 611 increases.

本実施の形態では、透過率614のデフォルト値は限定されないが、例えば50%とする。デフォルトの透過率614は、他の移動体が、窓378を介して車両100の内部を十分に視認することを可能にする値を示す。 In the present embodiment, the default value of the transmittance 614 is not limited, but is set to, for example, 50%. The default transmittance 614 indicates a value that allows other moving objects to fully see the interior of the vehicle 100 through the window 378.

<漏洩可能性テーブル630の一例>
図5は、本実施の形態にかかる漏洩可能性テーブル630の一例を模式的に示す図である。図5を参照して、漏洩可能性テーブル630は、ディスプレイ372に表示される情報が他の移動体から覗き見されることにより、情報が漏洩する可能性を判断するために参照される。具体的には、漏洩可能性テーブル630は、当該可能性を判断するための1つ以上の指標631と、各指標631に対応して当該指標値を算出するための加算値632を含む。
<Example of leak possibility table 630>
FIG. 5 is a diagram schematically showing an example of the leakage possibility table 630 according to the present embodiment. With reference to FIG. 5, the leakage possibility table 630 is referred to for determining the possibility of information leakage by peeping at the information displayed on the display 372 from another mobile body. Specifically, the leak possibility table 630 includes one or more indexes 631 for determining the possibility and an additional value 632 for calculating the index value corresponding to each index 631.

指標631は、自移動体に周辺の他の移動体が接近している度合いを示す指標として、例えば、車両100の他の移動体との相対速度が低い(例えば、相対速度が閾値(1km/時)以下)時間を示す指標6311、および車両100の他の移動体との相対距離が短い(例えば、相対距離が閾値(2メートル)以下)時間を示す指標6312を含む。また、指標631は、他の移動体から、自移動体の表示装置で表示される情報が視認される可能性の度合いを示す指標として、例えば、当該他の移動体(他の車両の乗車者など)が自車両100を凝視した(見続けた)時間を示す指標6313、および当該他の移動体が自車両100を見た頻度(見た回数または単位時間あたりに見た回数)、すなわち他の移動体の自車両100に対する視線を検知した頻度を示す指標6314を含む。 The index 631 is an index indicating the degree to which other moving bodies in the vicinity are approaching the self-moving body. For example, the relative speed of the vehicle 100 with the other moving body is low (for example, the relative speed is a threshold value (1 km / km / km / km). Includes an index 6311 indicating time) and an index 6312 indicating time when the relative distance of the vehicle 100 to another moving body is short (for example, the relative distance is equal to or less than a threshold (2 meters)). Further, the index 631 is an index indicating the degree of possibility that the information displayed on the display device of the self-moving body is visually recognized by the other moving body, for example, the other moving body (passenger of another vehicle). An index 6313 indicating the time when the own vehicle 100 was stared (continued), and the frequency (the number of times the other moving object saw the own vehicle 100 or the number of times the vehicle was seen per unit time), that is, the other. Includes an index 6314 indicating the frequency with which the line of sight of the moving body 100 is detected.

加算値632は、対応する指標631を算出するために、視線検出部415によりカットアップされる値を示す。これら加算値632によれば、例えば、指標6311は、相対速度が低い場合に1分毎に2が加算されることによって算出される。指標6312は、相対距離が短い場合に1分毎に5が加算されることによって算出される。指標6313は、凝視時間の1分毎に10が加算されることによって算出される。指標6314は、他の移動体から自車両100への視線が検知される毎に1が加算されることによって算出される。 The addition value 632 indicates a value cut up by the line-of-sight detection unit 415 in order to calculate the corresponding index 631. According to these addition values 632, for example, the index 6311 is calculated by adding 2 every minute when the relative speed is low. The index 6312 is calculated by adding 5 every minute when the relative distance is short. The index 6313 is calculated by adding 10 every minute of the gaze time. The index 6314 is calculated by adding 1 each time a line of sight from another moving body to the own vehicle 100 is detected.

図5に示す閾値、加算値(カウントアップされる値およびカウントアップの間隔)は、一例であって可変である。装置30は、例えば、装置30に対しするユーザー操作に基づき、これら値を設定する。 The threshold value and the added value (value to be counted up and interval of count-up) shown in FIG. 5 are examples and are variable. The device 30 sets these values, for example, based on a user operation on the device 30.

<画像の分析処理>
カメラ画像分析部412の第1分析部41は、車外カメラ374から出力される画像から所定の特徴量を抽出する。所定の特徴量は、被写体である他の移動体の画像が有する固有の特徴量であって、例えばナンバープレートの番号、車体の色、車体のデザイン、乗員111の顔(顔全体、顔の部分(目、鼻、口など))の特徴量を含む。第1分析部41は、車外カメラ3741〜3743のそれぞれ毎に、当該車外カメラから出力される画像と抽出された特徴量を出力する。なお、画像から所定の特徴量を抽出する処理は、例えばパターンマッチングによって実現することができる。
<Image analysis processing>
The first analysis unit 41 of the camera image analysis unit 412 extracts a predetermined feature amount from the image output from the external camera 374. The predetermined feature amount is a unique feature amount possessed by the image of another moving object as the subject, for example, the license plate number, the body color, the body design, and the face of the occupant 111 (entire face, face portion). (Eyes, nose, mouth, etc.)) features are included. The first analysis unit 41 outputs the image output from the external camera and the extracted feature amount for each of the external cameras 3741 to 743. The process of extracting a predetermined feature amount from an image can be realized by, for example, pattern matching.

カメラ画像分析部412の第2分析部42は、車内カメラ375から出力される画像から所定の特徴量を抽出する。所定の特徴量は、画像から抽出された各ディスプレイ、各ユーザーおよび各窓の画像が有する特徴量であって、例えば各ディスプレイの位置と画面の向き、各ユーザーの位置と顔の向き、および各窓の位置と向きなどを含む。画像から所定の特徴量を抽出する処理は、例えばパターンマッチングによって実現することができる。第2分析部42は、車内カメラ375から出力される画像から車内に相当する3次元仮想空間を構築し、3次元仮想空間において、ディスプレイの位置と画面の向き、ユーザーの位置と顔の向き、および窓の位置と向きを示す特徴量を、例えば3次元の座標または3次元ベクトルとして抽出する。 The second analysis unit 42 of the camera image analysis unit 412 extracts a predetermined feature amount from the image output from the in-vehicle camera 375. The predetermined feature amount is the feature amount of each display, each user, and each window image extracted from the image, for example, the position and screen orientation of each display, the position and face orientation of each user, and each. Includes window position and orientation, etc. The process of extracting a predetermined feature amount from an image can be realized by, for example, pattern matching. The second analysis unit 42 constructs a three-dimensional virtual space corresponding to the inside of the vehicle from the image output from the in-vehicle camera 375, and in the three-dimensional virtual space, the position of the display and the orientation of the screen, the position of the user and the orientation of the face, And the feature quantity indicating the position and orientation of the window is extracted as, for example, three-dimensional coordinates or a three-dimensional vector.

なお、第2分析部42は、車内カメラ375の撮像画像から、各ディスプレイの位置と向き、および各窓の位置と向きを検出したが、検出方法は、これに限定されない。例えば、車内の機器および窓のレイアウトが固定であれば、第2分析部42は、このレイアウト情報から、各ディスプレイの位置と向き、および各窓の位置と向きを取得してもよい。 The second analysis unit 42 detects the position and orientation of each display and the position and orientation of each window from the captured image of the in-vehicle camera 375, but the detection method is not limited to this. For example, if the layout of the equipment and windows in the vehicle is fixed, the second analysis unit 42 may acquire the position and orientation of each display and the position and orientation of each window from this layout information.

<画像ファイル640の一例>
図6は、本実施の形態にかかる画像ファイル640の一例を模式的に示す図である。図6を参照して、画像ファイル640は車外カメラ374により撮影された他の移動体の複数の画像643を、撮像された時間tに従い時系列に格納する。画像ファイル640では、複数の画像643は、それぞれが、1または複数の画像643からなる1以上の群に分類される。各画像群は、同一または類似の特徴を備える画像を含む。各画像群は、当該画像群を識別するためのタグ642と、当該画像群を破棄するか否かを示すフラグ641とが割当てられる。フラグ641が0を示す場合は、対応の画像643の群は破棄されていることを示し、1を示す場合は、対応の画像643の群は保持されていることを示す。本実施の形態では、画像643の破棄とは、画像643を、漏洩可能性度654を判断するための対象画像から除外することを示し、画像643の保持とは、画像643を漏洩可能性度654を判断するために参照可能であることを示す。
<Example of image file 640>
FIG. 6 is a diagram schematically showing an example of an image file 640 according to the present embodiment. With reference to FIG. 6, the image file 640 stores a plurality of images 643 of other moving objects taken by the external camera 374 in chronological order according to the captured time t. In the image file 640, the plurality of images 643 are each classified into one or more groups consisting of one or more images 643. Each group of images includes images with the same or similar features. Each image group is assigned a tag 642 for identifying the image group and a flag 641 indicating whether or not to discard the image group. When flag 641 indicates 0, it indicates that the group of corresponding images 643 has been discarded, and when it indicates 1, it indicates that the group of corresponding images 643 has been retained. In the present embodiment, the destruction of the image 643 indicates that the image 643 is excluded from the target image for determining the leakage possibility 654, and the retention of the image 643 means that the image 643 is leaked. Indicates that 654 can be referenced to determine.

図6では、例えば、そのタグ642がTAGiを示す画像643は、対応のフラグ641が1から0に書き換えられることによって、その状態が図6の左側の保持から右側の破棄に変更される。 In FIG. 6, for example, the image 643 whose tag 642 indicates TAGi is changed from holding on the left side of FIG. 6 to discarding on the right side by rewriting the corresponding flag 641 from 1 to 0.

<指標値テーブル650の一例>
図7は、本実施の形態にかかる指標値テーブル650の一例を模式的に示す図である。図7を参照して、指標値テーブル650は、タグ642のそれぞれに対応して、図5の漏洩可能性テーブル630に従い算出された指標6311、指標6312、指標6313および指標6314ならびに漏洩可能性度654の各値を格納する。タグ642に対応の漏洩可能性度654は、本実施の形態では、例えば対応の指標6311〜6314の合計値に基づき設定される。例えば、合計値が、20以上のタグ642に対する漏洩可能性度654は「高」と設定されて、20未満であれば「低」と設定される。
<Example of index value table 650>
FIG. 7 is a diagram schematically showing an example of the index value table 650 according to the present embodiment. With reference to FIG. 7, the index value table 650 corresponds to each of the tags 642 and has the index 6311, the index 6312, the index 6313 and the index 6314 and the leak potential calculated according to the leak potential table 630 of FIG. Each value of 654 is stored. In the present embodiment, the leakage possibility degree 654 corresponding to the tag 642 is set based on, for example, the total value of the corresponding indexes 6311 to 6314. For example, the leakage probability 654 for tags 642 having a total value of 20 or more is set to "high", and if it is less than 20, it is set to "low".

なお、漏洩可能性度654は、少なくとも、自移動体に周辺の他の移動体が接近している度合いを示す指標6311と指標6312の合計値から算出することもできる。本実施の形態では、漏洩可能性度654は、他の移動体から自移動体の表示装置で表示される情報が視認される可能性の度合いを示す指標6313および6314も含めた指標6311〜6314の合計値から導出されることによって、より確かな漏洩可能性度654を取得することが可能になる。 The leakage possibility degree 654 can also be calculated from at least the total value of the index 6311 and the index 6312, which indicate the degree to which other moving bodies in the vicinity are approaching the self-moving body. In the present embodiment, the leakage possibility degree 654 is an index 6311 to 6314 including the indexes 6313 and 6314 indicating the degree of possibility that the information displayed on the display device of the own moving body is visually recognized from other moving bodies. By deriving from the total value of, it becomes possible to obtain a more reliable leakage probability 654.

<窓の透過率の調整の一例>
偏光調整装置373による透過率614に従う入射光量の調整方法について説明する。本実施の形態では、窓378は、車両100の前方に設けられたフロントガラス、後方に設けられたリアガラス、左側サイドの左サイドガラス、および右側サイドの右サイドガラスを含む。これら各ガラスは、車両100の車内と車外との間に設けられた調光ガラスである。例えば、二つの電極と、この二つの電極の間に挿入された液晶層とを含んで構成された液晶フイルム(図示しない)を備えた調光ガラスが用いられる。このような調光ガラスは、周知のものであり、印可された電圧に応じて液晶分子の配光性が変化することにより、光の透過率が制御される。すなわち、偏光調整装置373は、透過率614に従い液晶層に出力する電圧を制御することにより、窓378のガラスの透過率を制御する。偏光調整装置373は、フロントガラス、左サイドガラス、右サイドガラスおよびリアガラスの各々の透過率を個別に調整することができる。これにより、室外から室内への窓378を介した入射光量を減じることが可能となり、室内を他の移動体から覗き見されるのを防止することができる。
<Example of adjusting window transmittance>
A method of adjusting the amount of incident light according to the transmittance 614 by the polarization adjusting device 373 will be described. In the present embodiment, the window 378 includes a windshield provided in front of the vehicle 100, a rear glass provided in the rear, a left side glass on the left side, and a right side glass on the right side. Each of these glasses is a dimming glass provided between the inside of the vehicle 100 and the outside of the vehicle. For example, a dimming glass provided with a liquid crystal film (not shown) configured to include two electrodes and a liquid crystal layer inserted between the two electrodes is used. Such dimming glass is well known, and the light transmittance is controlled by changing the light distribution property of the liquid crystal molecules according to the applied voltage. That is, the polarization adjusting device 373 controls the transmittance of the glass of the window 378 by controlling the voltage output to the liquid crystal layer according to the transmittance 614. The polarization adjusting device 373 can individually adjust the transmittance of each of the windshield, the left side glass, the right side glass and the rear glass. As a result, it is possible to reduce the amount of incident light from the outside to the inside of the room through the window 378, and it is possible to prevent the inside of the room from being peeped by other moving objects.

<相対速度の算出の一例>
本実施の形態では、相対位置関係算出部414は、車外カメラ374により撮影された他の移動体の時系列の画像643から、例えば自車両100に対する他の移動体の相対的な速度を算出する。時系列の画像643を処理することにより、画像の移動速度、すなわち他の移動体の移動速度の算出には、周知の方法を適用することができるので、ここでは説明を繰り返さない。
<Example of calculation of relative velocity>
In the present embodiment, the relative positional relationship calculation unit 414 calculates, for example, the relative speed of the other moving body with respect to the own vehicle 100 from the time-series image 643 of the other moving body taken by the external camera 374. .. By processing the time-series image 643, a well-known method can be applied to the calculation of the moving speed of the image, that is, the moving speed of another moving body, and thus the description is not repeated here.

<視線と凝視時間の検出の一例>
視線検出部415は、車外カメラ374により撮影された画像643に基づいて被写体の視線を検出する。具体的には、画像643から被写体の領域を抽出し、被写体の領域から、目の領域および瞳の領域を抽出する。目の領域に対する瞳の領域の位置関係から視線を検出する。瞳の領域を、左、中、右の3つの領域に水平方向に3分割し瞳の領域が、3つの分割領域のいずれに存在するかを判別する。瞳の領域が、目の領域の左の分割領域に存在すれば、右方向の視線を検出し、瞳の領域が、目の領域の中の分割領域に存在すれば、正面方向の視線を検出し、瞳の領域が、目の領域の右の分割領域に存在すれば、左方向の視線を検出する。視線検出部415は、検出した視線の情報を出力する。なお、視線の検出方法は、これに限定されない。
<Example of detection of line of sight and gaze time>
The line-of-sight detection unit 415 detects the line of sight of the subject based on the image 643 taken by the external camera 374. Specifically, the subject area is extracted from the image 643, and the eye area and the pupil area are extracted from the subject area. The line of sight is detected from the positional relationship of the pupil region with respect to the eye region. The pupil region is divided into three regions of left, middle, and right in the horizontal direction, and it is determined which of the three divided regions the pupil region exists in. If the pupil area is in the left split area of the eye area, the right line of sight is detected, and if the pupil area is in the split area in the eye area, the front line of sight is detected. However, if the pupil region exists in the right division region of the eye region, the line of sight to the left is detected. The line-of-sight detection unit 415 outputs the detected line-of-sight information. The method of detecting the line of sight is not limited to this.

処理部430は、視線検出部415の出力に基づき視線が正面方向である、すなわち他の移動体の視線が自車両100に向けられていると判定するとき、視線が正面方向である継続時間をカウントすることで、指標6313の凝視時間を計測する。本実施の形態では、他の移動体(すなわち車両110の乗員111)の視線が正面方向であることを、「他の移動体の視線を検出」と称する。 When the processing unit 430 determines that the line of sight is in the front direction based on the output of the line-of-sight detection unit 415, that is, the line of sight of another moving body is directed to the own vehicle 100, the processing unit 430 determines the duration of the line of sight in the front direction. By counting, the gaze time of the index 6313 is measured. In the present embodiment, the line of sight of the other moving body (that is, the occupant 111 of the vehicle 110) in the front direction is referred to as "detecting the line of sight of the other moving body".

<処理フローチャートの一例>
図8および図9は、本実施の形態にかかる処理の一例を示すフローチャートである。これらフローチャートはプログラムとして記憶装置に格納されて、CPU300により記憶装置から読出されて実行される。プログラムは、所定周期で繰り返し実行される。
<Example of processing flowchart>
8 and 9 are flowcharts showing an example of the processing according to the present embodiment. These flowcharts are stored in the storage device as a program, read from the storage device by the CPU 300, and executed. The program is repeatedly executed at a predetermined cycle.

図8と図9を参照して、車両100で情報を表示するディスプレイの位置と、他の移動体と自車両100との相対的位置関係とに基づく視認性制御に係る処理として、以下の第1の第1のケース〜第4のケースを説明する。 With reference to FIGS. 8 and 9, the following third process is performed as a process related to visibility control based on the position of the display for displaying information on the vehicle 100 and the relative positional relationship between the other moving body and the own vehicle 100. The first case to the fourth case of 1 will be described.

図10は、本実施の形態にかかる車両100の室内の一例を模式的に示す図である。図10を参照して、車両100の室内にはディスプレイ372−1、372−2および372−3と、装置30と、ユーザー端末371−1および371−2、および車内カメラ375が備えられる。窓378は、リアガラスの窓3781(以下、窓Aともいう)、左サイドガラスの窓3782(以下、窓Bともいう)および右サイドガラスの窓3783(以下、窓Cともいう)を含む。室外(車体)には、車両100の後方および左右サイドには近接センサー376がそれぞれ備えられる。室外には、さらに、車両100の後方および左右サイドに、それぞれ、車外カメラ3741、3742および3743が備えられる。 FIG. 10 is a diagram schematically showing an example of the interior of the vehicle 100 according to the present embodiment. With reference to FIG. 10, the interior of the vehicle 100 is provided with displays 372-1, 372-2 and 372-3, a device 30, user terminals 371-1 and 371-2, and an in-vehicle camera 375. The window 378 includes a rear glass window 3781 (hereinafter, also referred to as window A), a left side glass window 3782 (hereinafter, also referred to as window B), and a right side glass window 3783 (hereinafter, also referred to as window C). Proximity sensors 376 are provided on the rear side and the left and right sides of the vehicle 100 outdoors (vehicle body). Outside the room, external cameras 3741, 3742, and 3743 are further provided on the rear and left and right sides of the vehicle 100, respectively.

ディスプレイ372−1は、画面がリアガラス3701の窓Aに対向するよう配置され、ディスプレイ372−2は画面が左サイドガラス3702の窓Bに対向するように配置され、ディスプレイ372−3は画面が右サイドガラス3703の窓Cに対向するように配置されている。図10では、窓A、BおよびCのガラスはデフォルトの透過率を有する。 The display 372-1 is arranged so that the screen faces the window A of the rear glass 3701, the display 372-2 is arranged so that the screen faces the window B of the left side glass 3702, and the display 372-3 has the screen facing the right side glass. It is arranged so as to face the window C of 3703. In FIG. 10, the glass of windows A, B and C has a default transmittance.

(第1のケース)
図10の車内のディスプレイのうち、ディスプレイ372−1にのみコンテンツ610の情報を表示した状態で(他のディスプレイ372−2,372−3は消灯(OFF))、ユーザーAとBが参加し会議が実施されている場合に、装置30は、車両100の後ろに長時間居る他の移動体の視線を検出するケースを説明する。以下では、ユーザーAとBを参加者ともいう。
(First case)
Among the displays in the vehicle shown in FIG. 10, users A and B participate in the meeting with the information of the content 610 displayed only on the display 372-1 (the other displays 372-2 and 372-3 are turned off (OFF)). Explains the case where the device 30 detects the line of sight of another moving body that is behind the vehicle 100 for a long time. In the following, users A and B are also referred to as participants.

図8を参照して、カメラ画像分析部412は車外カメラ3741、3742および3743から撮像された画像を入力する(ステップS3)。近接度検出部411は、近接センサー376の出力に基づき車両100の後方に他の移動体(車両110)が居ると検知する(ステップS5でYES)。近接度検出部411は、近接センサー376の出力に基づき、移動体(人または車両)は無いと判定すると(ステップS5でNO)、ステップS3に戻る。 With reference to FIG. 8, the camera image analysis unit 412 inputs images captured by the external cameras 3741, 3742, and 3743 (step S3). The proximity detection unit 411 detects that there is another moving body (vehicle 110) behind the vehicle 100 based on the output of the proximity sensor 376 (YES in step S5). When the proximity detection unit 411 determines that there is no moving object (person or vehicle) based on the output of the proximity sensor 376 (NO in step S5), the proximity detection unit 411 returns to step S3.

処理部430は、近接センサー376の出力に基づき、カメラ画像分析部412からの画像のうち、車両100の後方に備えられた車外カメラ3741が撮像した画像を選択し、選択した画像(以下、入力画像という)を処理する。 Based on the output of the proximity sensor 376, the processing unit 430 selects an image captured by the external camera 3741 provided behind the vehicle 100 from the images from the camera image analysis unit 412, and selects the selected image (hereinafter, input). Process).

まず、処理部430は、入力画像にタグ642が付与されているか否かを判定する(ステップS7)。具体的には、処理部430は、入力画像を画像ファイル640のフラグ641が「1」の各画像643と照合し、照合結果に基づき入力画像にマッチする画像643が画像ファイル640に格納されているか否かを判定する。処理部430は、マッチする画像643が画像ファイル640に格納されていると判定すると、すなわち入力画像には既にタグ642が付与されていると判定すると(ステップS7でNO)、入力画像を判定されたタグ642が付与されるように画像ファイル640に格納し、ステップS15に移行する。 First, the processing unit 430 determines whether or not the tag 642 is attached to the input image (step S7). Specifically, the processing unit 430 collates the input image with each image 643 in which the flag 641 of the image file 640 is "1", and the image 643 matching the input image is stored in the image file 640 based on the collation result. Judge whether or not. When the processing unit 430 determines that the matching image 643 is stored in the image file 640, that is, determines that the tag 642 has already been attached to the input image (NO in step S7), the processing unit 430 determines the input image. The image file 640 is stored so that the tag 642 is attached, and the process proceeds to step S15.

処理部430は、入力画像を画像ファイル640のフラグ641が「1」の各画像643と照合し、照合結果に基づきマッチする画像643が画像ファイル640に格納されていないと判定すると、すなわち入力画像にはタグ642が付与されていないと判定すると(ステップS7でYES)、ステップS9に移行する。 The processing unit 430 collates the input image with each image 643 in which the flag 641 of the image file 640 is "1", and determines that the matching image 643 is not stored in the image file 640 based on the collation result, that is, the input image. If it is determined that the tag 642 is not attached to the file (YES in step S7), the process proceeds to step S9.

ステップS9では、移動体タグ生成部413は、入力画像をフラグ641が「0」である破棄の画像643と照合し、照合の結果に基づき、入力画像はタグ642が付与された履歴があるか否かを判定する。この照合の結果、マッチした画像643があると判定されると(ステップS9でYES)、移動体タグ生成部413は、マッチした画像643のタグ642を入力画像に付与して、タグ642が付与された当該入力画像を、画像643として画像ファイル640に格納する(ステップS13)。一方、移動体タグ生成部413は、マッチする画像643はないと判定すると(ステップS9でNO)、移動体タグ生成部413は、新たなタグ642を入力画像に付与して、タグ642が付与された当該入力画像を、画像643として画像ファイル640に格納する(ステップS11)。 In step S9, the mobile tag generation unit 413 collates the input image with the discarded image 643 in which the flag 641 is "0", and based on the collation result, does the input image have a history of being given the tag 642? Judge whether or not. As a result of this collation, if it is determined that there is a matched image 643 (YES in step S9), the moving body tag generation unit 413 attaches the tag 642 of the matched image 643 to the input image, and the tag 642 is attached. The input image is stored in the image file 640 as an image 643 (step S13). On the other hand, when the moving body tag generation unit 413 determines that there is no matching image 643 (NO in step S9), the moving body tag generation unit 413 attaches a new tag 642 to the input image, and the tag 642 is attached. The input image is stored in the image file 640 as an image 643 (step S11).

ステップS15では、処理部430は、画像ファイル640で保持された(すなわち、フラグ641が「1」)の画像643のタグ642は、入力画像に付与されたタグ642と同一かを判定する(ステップS15)。処理部430は、同一と判定すると(ステップS15でYES)、ステップS21に移行する。 In step S15, the processing unit 430 determines whether the tag 642 of the image 643 held in the image file 640 (that is, the flag 641 is “1”) is the same as the tag 642 attached to the input image (step S15). S15). If the processing unit 430 determines that they are the same (YES in step S15), the process proceeds to step S21.

処理部430は、画像ファイル640に保持された各タグ642について、漏洩可能性度654を算出する(ステップS21〜S25)。 The processing unit 430 calculates the leakage possibility degree 654 for each tag 642 held in the image file 640 (steps S21 to S25).

具体的には、相対位置関係算出部414は、保持された各タグ642について、その時系列の画像643から相対速度を算出するとともに、視線検出部415は保持された各タグ642について、その時系列の画像643から「他の移動体の視線を検出」する(ステップS21)。 Specifically, the relative positional relationship calculation unit 414 calculates the relative velocity of each of the retained tags 642 from the time-series image 643, and the line-of-sight detection unit 415 calculates the relative velocity of each of the retained tags 642 of the time series. “Detecting the line of sight of another moving object” from image 643 (step S21).

処理部430は、各タグについて、「他の移動体の視線を検出」および相対速度から、相対速度低時間の指標6311、相対距離近時間の指標631、凝視時間の指標6313および視線検知回数の指標6314を算出し(ステップS23)、算出された各指標値から漏洩可能性度654を算出する(ステップS25)。処理部430は、算出されたこれらデータを漏洩可能性テーブル630に格納する。 For each tag, the processing unit 430 "detects the line of sight of another moving object" and, from the relative speed, the index 6311 of the relative speed low time, the index 631 of the relative distance short time, the index 6313 of the gaze time, and the number of times of line sight detection. The index 6314 is calculated (step S23), and the leakage possibility degree 654 is calculated from each of the calculated index values (step S25). The processing unit 430 stores the calculated data in the leakage possibility table 630.

処理部430は、漏洩可能性テーブル630を検索し、検索の結果に基づき、漏洩可能性度654が「高」であるタグ642が有るか否かを判定する(ステップS27)。 The processing unit 430 searches the leak possibility table 630, and determines whether or not there is a tag 642 having a leak possibility 654 of "high" based on the search result (step S27).

処理部430は、漏洩可能性度654が「高」であるタグ642が有ると判定すると(ステップS27でYES)、当該タグ642は、その漏洩可能性度654が「高」と判定された新規のタグであるかを判定する(ステップS29)。処理部430は、当該タグ642は新規のタグではないと判定すると(ステップS29でNO)、当該タグ642の視線検知回数の指標6314と相対距離近時間の指標6312と、前回の実行周期で算出されたこれら指標値とを比較し、比較の結果に基づき、視線検知回数の指標6314と相対距離近時間の指標6312が変化したか否かを判定する(ステップS31)。 When the processing unit 430 determines that there is a tag 642 having a leakage possibility of 654 of "high" (YES in step S27), the tag 642 is a new tag having a leakage possibility of 654 of "high". It is determined whether or not the tag is (step S29). When the processing unit 430 determines that the tag 642 is not a new tag (NO in step S29), the processing unit 430 calculates the tag 642 as an index 6314 for the number of line-of-sight detections, an index 6312 for the relative distance short time, and the previous execution cycle. These index values are compared with each other, and based on the result of the comparison, it is determined whether or not the index 6314 of the number of times the line of sight is detected and the index 6312 of the relative distance short time have changed (step S31).

処理部430は、指標6314と指標6312は、前回の周期で算出された指標値から変化していないと判定すると(ステップS31でNO)、処理部430は、装置30に対するユーザー操作に基づき、ディスプレイ372の会議による利用が終了したか否か、すなわちディスプレイ372がOFFされたか否かを判断する(ステップS39)。 When the processing unit 430 determines that the index 6314 and the index 6312 have not changed from the index values calculated in the previous cycle (NO in step S31), the processing unit 430 displays the display based on the user operation on the device 30. It is determined whether or not the use of the 372 meeting is completed, that is, whether or not the display 372 is turned off (step S39).

処理部430は、利用終了を判定しないときは(ステップS39でNO)、ステップS3に戻るが、利用終了を判定すると(ステップS39でYES)、視認性を制御する制御値を、初期値に設定するとともに、内部処理のデータを消去する(ステップS41)。本実施の形態では、視認性の制御値は、透過率614またはディスプレイ372に表示される画像の輝度値を含む。透過率614の初期値はデフォルト値であり、輝度値は画像の明るさを0〜256階調のうちの標準明るさを示す値に相当する。 When the processing unit 430 does not determine the end of use (NO in step S39), the process returns to step S3, but when it determines the end of use (YES in step S39), the processing unit 430 sets a control value for controlling visibility to an initial value. At the same time, the data of the internal processing is deleted (step S41). In the present embodiment, the visibility control value includes the transmittance 614 or the brightness value of the image displayed on the display 372. The initial value of the transmittance 614 is a default value, and the brightness value corresponds to a value indicating the standard brightness of the image brightness from 0 to 256 gradations.

一方、処理部430は、漏洩可能性度654が「高」を示すタグ642は新規のタグであると判定すると(ステップS29でYES)、または、処理部430は、指標6314と指標6312は、前回の周期で算出された指標値から変化したと判定すると(ステップS31でNO)、装置30は視認性変更処理を実施する(ステップS33)。その後、ステップS39に移行する。 On the other hand, the processing unit 430 determines that the tag 642 having a leakage possibility 654 of "high" is a new tag (YES in step S29), or the processing unit 430 determines that the index 6314 and the index 6312 are When it is determined that the index value has changed from the index value calculated in the previous cycle (NO in step S31), the device 30 executes the visibility change process (step S33). After that, the process proceeds to step S39.

図9を参照して、視認性変更処理を説明する。図9の視認性変更処理では、車両100の車内にある表示装置であって、コンテンツ610を表示可能な表示装置を対象に処理が実施される。このような表示装置は、装置30と通信可能な表示装置(例えば、ディスプレイ372、ユーザー端末371など)と、装置30と通信不可能な表示媒体(例えば、ユーザー個人が所有する携帯端末379、紙の資料(MFP377からの印刷物)など)を含む。図9では、漏洩可能性度654が「高」を示すタグ642の画像643に対応の他の移動体を、「特定他の移動体」ともいう。 The visibility change process will be described with reference to FIG. In the visibility change process of FIG. 9, the process is performed on the display device inside the vehicle 100 and capable of displaying the content 610. Such a display device includes a display device that can communicate with the device 30 (for example, a display 372, a user terminal 371, etc.) and a display medium that cannot communicate with the device 30 (for example, a mobile terminal 379 owned by an individual user, paper). Documents (printed matter from MFP377), etc.) are included. In FIG. 9, another moving body corresponding to the image 643 of the tag 642 showing a leakage possibility of 654 of "high" is also referred to as a "specific other moving body".

まず、調整方法決定部418は、表示装置とコンテンツ610を特定する(ステップS47)。具体的には、調整方法決定部418は、車内の表示装置のうち、特定他の移動体から、その画面が見える表示装置(以下、「見える表示装置」ともいう)、または画面が隠れるような位置にある表示装置(以下、「隠れる表示装置」ともいう)を特定する。また、会議の表示対象であるコンテンツ610を特定する。 First, the adjustment method determination unit 418 identifies the display device and the content 610 (step S47). Specifically, the adjustment method determination unit 418 is such that the screen can be seen from a specific other moving body (hereinafter, also referred to as “visible display device”) or the screen is hidden from the display devices in the vehicle. The display device at the position (hereinafter, also referred to as "hidden display device") is specified. In addition, the content 610 to be displayed in the conference is specified.

例えば、調整方法決定部418は、第2分析部42から出力された徴量(位置と向き)を有するディスプレイのうち、特定他の移動体の方向と画面の向きが略一致するディスプレイを抽出し、抽出されたディスプレイを見える表示装置として特定する。この場合は、見える表示装置として、ディスプレイ372が特定される。また、調整方法決定部418は、第2分析部42から出力された徴量(位置と向き)を有するディスプレイのうち、特定他の移動体の方向と画面の向きが異なるディスプレイを抽出し、抽出されたディスプレイを隠れる表示装置として特定する。 For example, the adjustment method determination unit 418 extracts a display having a measure (position and orientation) output from the second analysis unit 42, in which the direction of the specific other moving object and the orientation of the screen substantially match. , Identify the extracted display as a visible display device. In this case, the display 372 is specified as a visible display device. Further, the adjustment method determination unit 418 extracts and extracts a display having a measurement (position and orientation) output from the second analysis unit 42 and whose screen orientation is different from that of the specific other moving object. Identify the displayed display as a hidden display device.

調整方法決定部418は、ユーザー操作に基づき指定されたコンテンツ610を、格納部500から検索し、検索されたコンテンツ610の機密度611を取得する(ステップS49)。 The adjustment method determination unit 418 searches the storage unit 500 for the content 610 specified based on the user operation, and acquires the sensitivity 611 of the searched content 610 (step S49).

調整方法決定部418は、ステップS49での検索によってヒットしたコンテンツ610があるか否かにより、他の移動体から見える表示情報があるか否かを判定する(ステップS51)。調整方法決定部418は、他の移動体から見える表示情報はないと判定すると(ステップS51でNO)、ステップS65に移行する。一方、調整方法決定部418は、他の移動体から見える表示情報はあると判定すると(ステップS51でYES)、ステップS47で特定された見える表示装置に対して、視認性の制御を実施できるか否かを判定する(ステップS53)。例えば、見える表示装置が、装置30が制御不可能な装置(例えば、装置30と通信しない携帯端末379など)であれば、当該見える表示装置は視認性の制御不可能な装置と判定されて(ステップS53でNO)、ステップS67に移行する。 The adjustment method determination unit 418 determines whether or not there is display information that can be seen from other moving objects, depending on whether or not there is content 610 that is hit by the search in step S49 (step S51). When the adjustment method determination unit 418 determines that there is no display information visible from other moving objects (NO in step S51), the process proceeds to step S65. On the other hand, if the adjustment method determination unit 418 determines that there is display information visible from another moving body (YES in step S51), can the visibility control be performed on the visible display device specified in step S47? Whether or not it is determined (step S53). For example, if the visible display device is a device in which the device 30 cannot be controlled (for example, a mobile terminal 379 that does not communicate with the device 30), the visible display device is determined to be a device in which the visibility cannot be controlled (for example). NO in step S53), the process proceeds to step S67.

調整方法決定部418は、見える表示装置が、装置30によって制御可能な表示装置(例えば、ユーザー端末371、ディスプレイ372など)であれば視認性の制御可能な装置と判定する(ステップS53でYES)。 The adjustment method determination unit 418 determines that the visible display device is a display device that can be controlled by the device 30 (for example, a user terminal 371, a display 372, etc.) and that the visibility can be controlled (YES in step S53). ..

調整方法決定部418は、ステップS47において、隠れる表示装置が特定されたか否かを判定する(ステップS55)。 The adjustment method determination unit 418 determines in step S47 whether or not the hidden display device has been specified (step S55).

調整方法決定部418は、隠れる表示装置が特定されたと判定すると(ステップS55でYES)、当該隠れる表示装置は、その画面が参加者の一人以上によって見ることができる向きであるかを、第2分析部42から出力される特徴量を判定する(ステップS57)。具体的には、調整方法決定部418は、第2分析部42から出力される特徴量に基づき、一人以上の参加者の顔が、隠れる表示装置の画面に向いているか否かを判定する。 When the adjustment method determination unit 418 determines that the hidden display device has been identified (YES in step S55), the second step is to determine whether the hidden display device is oriented so that the screen can be viewed by one or more participants. The feature amount output from the analysis unit 42 is determined (step S57). Specifically, the adjustment method determination unit 418 determines whether or not the faces of one or more participants are facing the screen of the hidden display device based on the feature amount output from the second analysis unit 42.

調整方法決定部418は、一人以上の参加者の顔が、隠れる表示装置の画面に向いていると判定すると(ステップS57でYES)、調整方法決定部418は、通信制御部420を介して、コンテンツ610を表示するために当該隠れる表示装置を点灯させる制御信号を出力する(ステップS59)。これにより、コンテンツ610の表示装置を、車内の表示装置のうち、一人以上の参加者がその画面を見ることができる隠れる表示装置に切替えることができる。 When the adjustment method determination unit 418 determines that the faces of one or more participants are facing the screen of the hidden display device (YES in step S57), the adjustment method determination unit 418 uses the communication control unit 420 to determine the face. A control signal for lighting the hidden display device is output in order to display the content 610 (step S59). As a result, the display device of the content 610 can be switched to a hidden display device among the display devices in the vehicle so that one or more participants can see the screen.

調整方法決定部418は、第2分析部42から出力される特徴量に基づき、参加者全員の顔の向きが、ステップS59で点灯された隠れる表示装置の画面の対向している、すなわち隠れる表示装置は、その画面を参加者全員が見ることができる位置にあると判定すると(ステップS61でYES)、通信制御部420を介して、ステップS47で特定された見える表示装置を消灯させる制御信号を出力する(ステップS63)。 Based on the feature amount output from the second analysis unit 42, the adjustment method determination unit 418 has the faces of all the participants facing each other, that is, the hidden display on the screen of the hidden display device lit in step S59. When the device determines that the screen is in a position where all participants can see it (YES in step S61), the device sends a control signal for turning off the visible display device specified in step S47 via the communication control unit 420. Output (step S63).

調整方法決定部418は、視線検出部415の出力が「他の移動体の視線を検出」を示すか否かを判定する(ステップS65)。すなわち、車両100の後ろの移動体の視線が依然として当該車両100に向けられている場合は(ステップS65でYES)、透過率制御部419は、車両100と後ろの車両110(他の移動体)との間の窓Aからの覗き見を防止するための透過率614を決定し、出力する。透過率制御部419は、ステップS49で取得した機密度611に基づき機密度テーブル620を検索することにより、対応する透過率614を読出し、窓Aの透過率614を出力する。これにより、偏光調整装置373は、窓Aのガラスが機密度611に基づく透過率614となるよう窓Aの液晶層へ電圧を印可する。 The adjustment method determination unit 418 determines whether or not the output of the line-of-sight detection unit 415 indicates “detects the line of sight of another moving body” (step S65). That is, when the line of sight of the moving body behind the vehicle 100 is still directed to the vehicle 100 (YES in step S65), the transmittance control unit 419 is the vehicle 100 and the vehicle 110 behind (another moving body). The transmittance 614 for preventing peeping from the window A between the and is determined and output. The transmittance control unit 419 reads the corresponding transmittance 614 by searching the transmittance table 620 based on the transmittance 611 acquired in step S49, and outputs the transmittance 614 of the window A. As a result, the polarization adjusting device 373 applies a voltage to the liquid crystal layer of the window A so that the glass of the window A has a transmittance of 614 based on the density 611.

一方、調整方法決定部418は、視線検出部415の出力が「他の移動体の視線を検出」を示さず、すなわち車両100の後ろの移動体の視線は当該車両100に向けられていないと判定した場合は(ステップS65でNO)、視認性変更処理を終了し、図8の処理に戻る。 On the other hand, the adjustment method determination unit 418 does not indicate that the output of the line-of-sight detection unit 415 "detects the line of sight of another moving body", that is, the line of sight of the moving body behind the vehicle 100 is not directed to the vehicle 100. If it is determined (NO in step S65), the visibility change process is terminated and the process returns to the process of FIG.

このように、車両100の周辺の移動体について漏洩可能性度654が高い場合は、コンテンツ610を表示するための表示装置は、隠れる表示装置に切替えられる。切替え後も、依然として「他の移動体の視線を検出」の状態であるときは、車両100と他の移動体との間の窓378の透過率は、コンテンツ610の機密度611に基づく透過率614となるように変更される(透過率は小さくなる)。 As described above, when the leakage possibility 654 is high for the moving body around the vehicle 100, the display device for displaying the content 610 is switched to the hidden display device. Even after switching, when the state of "detecting the line of sight of another moving object" is still present, the transmittance of the window 378 between the vehicle 100 and the other moving object is the transmittance based on the density 611 of the content 610. It is changed to 614 (the transmittance becomes smaller).

図11は、本実施の形態にかかる(第1のケース)において視認性が調整された状態を模式的に示す図である。図10の状態から図11に示すように、自移動体(車両100)の周辺に存在する他の移動体(車両110)と自移動体との相対位置関係から漏洩可能性度654が高く覗き見される可能性がある状態に変化する。このときは、視認性の変更が実施される。この視認性の変更は、図11に示すようにコンテンツ610の表示先を隠れる表示装置(例えば、ディスプレイ372−2と372−3)に切替える、またはコンテンツ610の機密度611に応じて、自移動体と他移動体の間にある窓Aのガラス3701の透過率614を低下させる、を含む。これにより、表示されるコンテンツ610が他の移動体により覗き見される可能性を低くすることができる。 FIG. 11 is a diagram schematically showing a state in which the visibility is adjusted in the (first case) according to the present embodiment. As shown in FIG. 11 from the state of FIG. 10, the possibility of leakage 654 is high due to the relative positional relationship between the self-moving body and another moving body (vehicle 110) existing around the self-moving body (vehicle 100). It changes to a state that can be seen. At this time, the visibility is changed. This change in visibility switches the display destination of the content 610 to a hidden display device (for example, displays 372-2 and 372-3) as shown in FIG. 11, or moves by itself according to the density 611 of the content 610. Includes reducing the transmittance 614 of the glass 3701 of the window A between the body and the other mobile. As a result, it is possible to reduce the possibility that the displayed content 610 is peeped by another moving body.

(第2のケース)
この(第2のケース)では、ディスプレイ372−1でコンテンツ610を表示中に、長時間、車両100の側方に居る他の移動体を検知した場合を説明する。
(Second case)
In this (second case), a case where another moving object on the side of the vehicle 100 is detected for a long time while displaying the content 610 on the display 372-1 will be described.

図12は、本実施の形態にかかる車両100の室内の他の例を模式的に示す図である。図13は、本実施の形態にかかる(第2のケース)において視認性が調整された状態を模式的に示す図である。図12では、車内にMFP377が設置されているが、他の構成は図10と同様なので説明は繰り返さない。 FIG. 12 is a diagram schematically showing another example of the interior of the vehicle 100 according to the present embodiment. FIG. 13 is a diagram schematically showing a state in which the visibility is adjusted in the (second case) according to the present embodiment. In FIG. 12, the MFP 377 is installed in the vehicle, but the description is not repeated because the other configurations are the same as those in FIG.

図12では、車内のディスプレイ372−1〜372−3のうちディスプレイ372−1のみが点灯してコンテンツ610を表示している。この場合において、図13に示すように、自車両100の右側の車両110が、一定時間、車両100と並走する。 In FIG. 12, of the displays 372 to 1372-3 in the vehicle, only the display 372-1 is lit to display the content 610. In this case, as shown in FIG. 13, the vehicle 110 on the right side of the own vehicle 100 runs in parallel with the vehicle 100 for a certain period of time.

(第2のケース)でも、図8の処理が(第1のケース)と同様に、車両110の車体の右側の車外カメラ3743が撮像する画像643についてタグ642が付与されて、画像ファイル640に格納されるとともに、当該タグ642に画像643の他の移動体について、指標631と漏洩可能性度654が算出されて、指標値テーブル650に格納される。さらに、図9の視認性変更処理が実施される。 In the (second case) as well, in the same manner as in the (first case), the process of FIG. 8 is attached with the tag 642 to the image 643 captured by the outside camera 3743 on the right side of the vehicle body of the vehicle 110, and the image file 640 At the same time, the index 631 and the leakage possibility degree 654 are calculated for the other moving body of the image 643 in the tag 642 and stored in the index value table 650. Further, the visibility change process of FIG. 9 is performed.

装置30は、図9のステップS47〜S61の処理を(第1のケース)と同様に実施する。調整方法決定部418は、隠れる表示装置を特定することができない(ステップS55でNO)、または隠れる表示装置の画面は参加者のいずれも見ることができない(ステップS57でNO、ステップS61でNO)と判定した場合、ステップS69に移行する。 The device 30 performs the processes of steps S47 to S61 of FIG. 9 in the same manner as in (first case). The adjustment method determination unit 418 cannot specify the hidden display device (NO in step S55), or the screen of the hidden display device cannot be seen by any of the participants (NO in step S57, NO in step S61). If it is determined, the process proceeds to step S69.

ステップS69では、調整方法決定部418は、ステップS49で取得したコンテンツ610の機密度611は一定以上であるかを判定する(ステップS69)。機密度611は一定以上であると判定すると(ステップS69でYES)、調整方法決定部418は、点灯中のディスプレイ372−1にコンテンツ610の頁番号のみを表示(または消灯する)などしてコンテンツ610の表示を中断させ(ステップS71)、参加者が、その画面を見ることができる隠れる表示装置を点灯させてコンテンツ610を表示させる(ステップS73)。また、隠れる表示装置の画面を見ることができない参加者のために、コンテンツ610を紙380に印刷するようにMFP377を制御する(ステップS75)。 In step S69, the adjustment method determination unit 418 determines whether the density 611 of the content 610 acquired in step S49 is equal to or higher than a certain level (step S69). When it is determined that the machine density 611 is above a certain level (YES in step S69), the adjustment method determination unit 418 displays (or turns off) only the page number of the content 610 on the lit display 372-1. The display of the 610 is interrupted (step S71), and the participant turns on the hidden display device capable of viewing the screen to display the content 610 (step S73). Also, the MFP 377 is controlled to print the content 610 on paper 380 for participants who cannot see the screen of the hidden display device (step S75).

これにより、車外カメラ3743と近接センサー376の情報を取り込んでいる装置30が、右側の他の車両110が一定時間並走していると判断すると、装置30は、当該移動体(車両110)から見える情報の遮断を実行するため、図13に示すように視認性を低下させる。図13では、ディスプレイ372−1をコンテンツ610の頁番号のみが表示される。ディスプレイ372−1は、自移動体(車両100)と並走する他の移動体から画面が見えない隠れた表示装置である。ユーザーAの前のディスプレイ372−2はコンテンツ610を表示するために点灯する。装置30は、ユーザーBから見える表示装置であるディスプレイ372−3は、その画面が他の移動体から見えるために、点灯せずに、MFP377にコンテンツ610の印刷を指示する。これにより、ユーザーBは、紙380に印刷されたコンテンツ610を確認することができる。(第2のケース)では、他の移動体は自移動体の側方に位置することから、「他の移動体の視線を検出」の可能性は低いので、装置30は、窓の透過率の制御を実施しない。 As a result, when the device 30 that captures the information of the external camera 3743 and the proximity sensor 376 determines that the other vehicle 110 on the right side is running in parallel for a certain period of time, the device 30 starts from the moving body (vehicle 110). Since the visible information is blocked, the visibility is reduced as shown in FIG. In FIG. 13, only the page number of the content 610 is displayed on the display 372-1. The display 372-1 is a hidden display device in which the screen cannot be seen from another moving body running in parallel with the self-moving body (vehicle 100). The display 372-2 in front of the user A lights up to display the content 610. The display 372-3, which is a display device visible to the user B, does not turn on the display 372-3 because the screen can be seen from another moving body, and instructs the MFP 377 to print the content 610. As a result, the user B can confirm the content 610 printed on the paper 380. In (second case), since the other moving body is located on the side of the self-moving body, the possibility of "detecting the line of sight of the other moving body" is low, so that the device 30 has the transmittance of the window. Does not control.

(第3のケース)
この(第3のケース)では、Webページなどの機密度が「低」のコンテンツ610をディスプレイ372−1によって表示中に、長時間にわたり、車両100の後方に居る他の移動体と「他の移動体の視線を検出」を検知した場合を説明する。
(Third case)
In this (third case), while displaying "low" content 610 such as a Web page on the display 372-1, "another" with other moving objects behind the vehicle 100 for a long time. The case where "detecting the line of sight of a moving body" is detected will be described.

図14は、本実施の形態にかかる車両100の室内の他の例を模式的に示す図である。図15は、本実施の形態にかかる(第3のケース)において視認性が調整された状態を模式的に示す図である。図14では、車内にはディスプレイ372−3が設置されていないが、他の構成は図10と同様なので説明は繰り返さない。 FIG. 14 is a diagram schematically showing another example of the interior of the vehicle 100 according to the present embodiment. FIG. 15 is a diagram schematically showing a state in which the visibility is adjusted in the present embodiment (third case). In FIG. 14, the display 372-3 is not installed in the vehicle, but the description is not repeated because the other configurations are the same as those in FIG.

図14では、車内のディスプレイ372−1と372−2のうちディスプレイ372−1のみが点灯してWebページのコンテンツ610を表示している。この場合において、図15に示すように、自車両100の後方に車両110が、一定時間、車両100に追走する。 In FIG. 14, only the display 372-1 out of the displays 372-1 and 372-2 in the vehicle is lit to display the content 610 of the Web page. In this case, as shown in FIG. 15, the vehicle 110 follows the vehicle 100 for a certain period of time behind the own vehicle 100.

(第3のケース)でも、図8の処理が(第1のケース)と同様に実施されることによって、装置30は、車両100の車体の後の車外カメラ3741が撮像した他の移動体の画像643を、タグ642を付与して画像ファイル640に格納する。装置30は、当該タグ642が付与された画像643を処理することにより、他の移動体について、指標631と漏洩可能性度654を算出し、算出の結果を、指標値テーブル650に格納する。装置30は、さらに、図9の視認性変更処理を実施する。 In the (third case) as well, by performing the process of FIG. 8 in the same manner as in the (first case), the device 30 is the other moving body imaged by the external camera 3741 behind the vehicle body of the vehicle 100. The image 643 is stored in the image file 640 with the tag 642 attached. The device 30 calculates the index 631 and the leakage possibility degree 654 for the other moving body by processing the image 643 to which the tag 642 is attached, and stores the calculation result in the index value table 650. The device 30 further performs the visibility change process of FIG.

装置30は、図9のステップS47〜S55の処理を(第1のケース)と同様に実施する。調整方法決定部418は、ディスプレイ372−2を、一人以上の参加者が、その画面を見ることができる隠れる表示装置として特定する(ステップS55でYES、ステップS57でYES)。調整方法決定部418は、ディスプレイ372−2にコンテンツ610(Webページ)を表示するために、ディスプレイ372−2に点灯の制御信号を送信する。 The apparatus 30 performs the processes of steps S47 to S55 of FIG. 9 in the same manner as in (first case). The adjustment method determination unit 418 identifies the display 372-2 as a hidden display device in which one or more participants can see the screen (YES in step S55, YES in step S57). The adjustment method determination unit 418 transmits a lighting control signal to the display 372-2 in order to display the content 610 (Web page) on the display 372-2.

調整方法決定部418は、隠れる表示装置であるディスプレイ372−2は、参加者全員が、その画面を見ることができる位置にないと判定し(ステップS61でNO)、ステップS69に移行する。 The adjustment method determination unit 418 determines that the display 372-2, which is a hidden display device, is not in a position where all the participants can see the screen (NO in step S61), and proceeds to step S69.

調整方法決定部418は、表示されるコンテンツ610であるWebページの機密度611は一定以上ではないと判定する(ステップS69でYES)。調整方法決定部418は、機密度611の判定結果に基づき、見える表示装置であるディスプレイ372−1の輝度を低下させるための輝度制御信号616を、通信制御部420を介してディスプレイ372−1に出力する(ステップS77)。輝度制御信号616は、例えば、ディスプレイ372の画面の明るさを決定する輝度信号(電圧信号またはパルス信号)の電圧値またパルス幅を変化させる信号を含む。その後、ステップS65に移行する。したがって、輝度を低下させる輝度制御信号616が出力されることによって、ディスプレイ372の画面を暗くすることができる。 The adjustment method determination unit 418 determines that the sensitivity 611 of the Web page, which is the displayed content 610, is not above a certain level (YES in step S69). Based on the determination result of the density 611, the adjustment method determining unit 418 transmits a brightness control signal 616 for reducing the brightness of the display 372-1 which is a visible display device to the display 372-1 via the communication control unit 420. Output (step S77). The luminance control signal 616 includes, for example, a signal that changes the voltage value or pulse width of the luminance signal (voltage signal or pulse signal) that determines the brightness of the screen of the display 372. After that, the process proceeds to step S65. Therefore, the screen of the display 372 can be darkened by outputting the luminance control signal 616 that reduces the luminance.

これにより、参加者全員が、その画面を見ることができる表示装置が特定できない場合は(ステップS61でNO)、図15に示すように、調整方法決定部418は見える表示装置であるディスプレイ372−1の画面の輝度を低下させることで、表示される情報の視認性を低下させることができる。 As a result, if the display device on which all the participants can see the screen cannot be specified (NO in step S61), as shown in FIG. 15, the adjustment method determination unit 418 is a display device which is a visible display device 372-. By reducing the brightness of the screen of No. 1, the visibility of the displayed information can be reduced.

(第4のケース)
(第4のケース)では、装置30は、ディスプレイ372に表示されるコンテンツ610の他の移動体からの覗き見の可能性がなくなった場合は、表示されるコンテンツ610の視認性をデフォルトに戻すように各部を制御する。
(Fourth case)
In (fourth case), the device 30 returns the visibility of the displayed content 610 to the default when the possibility of peeping from other moving objects of the content 610 displayed on the display 372 disappears. Each part is controlled so as to.

具体的には、図8を参照して、処理部430は、画像ファイル640で保持された画像643のタグ642のうち、入力画像に付与されたタグ642と同一ではないタグがあると判定すると(ステップS15でNO)、ステップS17に移行する。 Specifically, with reference to FIG. 8, the processing unit 430 determines that among the tags 642 of the image 643 held in the image file 640, there is a tag that is not the same as the tag 642 attached to the input image. (NO in step S15), the process proceeds to step S17.

ステップS17では、処理部430は、車外カメラ374で撮影されない、すなわち車両100の周辺から居なくなった移動体の画像643を破棄する。具体的には、処理部430は、ステップS15において、同一ではないと判定されたタグ642のフラグ641を「0」にセットする。これにより、処理部430は、画像ファイル640において、周辺から居なくなり覗き見の可能性がない移動体の画像643を破棄することができる。 In step S17, the processing unit 430 discards the image 643 of the moving body that is not photographed by the external camera 374, that is, the moving body that has disappeared from the periphery of the vehicle 100. Specifically, the processing unit 430 sets the flag 641 of the tag 642 determined to be not the same in step S15 to “0”. As a result, the processing unit 430 can discard the image 643 of the moving body in the image file 640, which disappears from the periphery and has no possibility of peeping.

処理部430は、漏洩可能性テーブル630の検索の結果に基づき、漏洩可能性度654が「高」であるタグ642はないと判定すると(ステップS27でNO)、調整方法決定部418は、調整量613および輝度制御信号616が出力されているか否かに基づき、現在の視認性は低を示すか否かを判定する(ステップS35)。 When the processing unit 430 determines that there is no tag 642 having a leakage possibility 654 of "high" based on the search result of the leakage possibility table 630 (NO in step S27), the adjustment method determination unit 418 adjusts. Based on whether or not the quantity 613 and the luminance control signal 616 are output, it is determined whether or not the current visibility indicates low (step S35).

処理部430は、現在の視認性は低を示さないと判定すると(ステップS35でNO)、ステップS39に移行する。一方、現在の視認性は低を示すと判定すると(ステップS35でYES)、処理部430は、視認性を元の値である「高」に設定する(ステップS37)。具体的には、調整方法決定部418は、透過率614をデフォルト値に設定し、または輝度制御信号616の出力を停止し、または表示制御データ615の画素の輝度値をデフォルト値に戻す。これにより、ディスプレイの画面または表示画像は明るくなり、また窓378の透過率はデフォルトとなって、ディスプレイに表示される情報の視認性は高くなる。その後、ステップS39に移行する。 When the processing unit 430 determines that the current visibility does not indicate low (NO in step S35), the process proceeds to step S39. On the other hand, if it is determined that the current visibility indicates low (YES in step S35), the processing unit 430 sets the visibility to the original value "high" (step S37). Specifically, the adjustment method determination unit 418 sets the transmittance 614 to the default value, stops the output of the luminance control signal 616, or returns the luminance value of the pixel of the display control data 615 to the default value. As a result, the screen or display image of the display becomes bright, and the transmittance of the window 378 becomes the default, and the visibility of the information displayed on the display becomes high. After that, the process proceeds to step S39.

<情報処理装置30を備えるシステム>
図16は、本実施の形態にかかる情報処理装置30を備えるネットワークシステムの構成を示す図である。図16では、複数の移動体(車両100)は、GPS受信機350によってGPS衛星700と通信することにより、自己の位置を検出し、検出位置を最寄りの基地局を介して、ネットワーク720の管理サーバー710に送信する。したがって、管理サーバー710は、各移動体の位置を時系列で管理することができる。
<System equipped with information processing device 30>
FIG. 16 is a diagram showing a configuration of a network system including the information processing device 30 according to the present embodiment. In FIG. 16, a plurality of mobile bodies (vehicles 100) detect their own positions by communicating with GPS satellites 700 by a GPS receiver 350, and manage the detection position of the network 720 via the nearest base station. Send to server 710. Therefore, the management server 710 can manage the position of each moving object in chronological order.

上記の実施の形態では、装置30は、他の移動体(車両110)と自移動体(車両100)との相対位置関係は、近接センサー376の出力または車外カメラ374が出力する画像から取得したが、取得方法はこれに限定されない。例えば、図16では、車両100の装置30は、ネットワークインターフェース360を介して管理サーバー710と通信し、自移動体の位置711と、自移動体の周辺に存在する他の移動体の位置712とを受信し、受信した位置711と712を処理することで、上記の相対位置関係(方向と距離)を算出することができる。また、受信する時系列の位置711と712を処理することで、相対速度を算出することができる。 In the above embodiment, the device 30 acquires the relative positional relationship between the other moving body (vehicle 110) and the self-moving body (vehicle 100) from the output of the proximity sensor 376 or the image output by the external camera 374. However, the acquisition method is not limited to this. For example, in FIG. 16, the device 30 of the vehicle 100 communicates with the management server 710 via the network interface 360, and the position 711 of the self-moving body and the position 712 of another moving body existing around the self-moving body. Is received, and the received positions 711 and 712 are processed, so that the above relative positional relationship (direction and distance) can be calculated. Further, the relative speed can be calculated by processing the positions 711 and 712 of the time series to be received.

または、管理サーバー710は、自移動体の位置711と他の移動体の位置712とから相対位置関係(方向と距離)を算出し、算出した相対位置関係を装置30に送信するとしてもよい。 Alternatively, the management server 710 may calculate a relative positional relationship (direction and distance) from the position 711 of the self-moving body and the position 712 of another moving body, and transmit the calculated relative positional relationship to the device 30.

<管理サーバー710の構成>
図17は、本実施の形態にかかる管理サーバー710のハードウェア構成の一例を概略的に示す図である。管理サーバー710は、「情報処理装置」の一実施例である。図17を参照して、管理サーバー710は、CPU701、記憶部702、ネットワークコントローラー703、およびメモリインターフェース707を含む。記憶部702は、CPU701により実行されるプログラムおよびデータを記憶するためのROM704、RAM705、各種の情報を格納するためのHDD706を含む。RAM705は、各種情報を記憶する領域と、CPU701でプログラムを実行する際の作業領域とを含む。ネットワークコントローラー703は、ネットワーク720を介して情報処理装置30と通信するためのNIC等の回路を含む。メモリインターフェース707は、記憶媒体708が着脱自在に装着されて、装着された記憶媒体708からデータまたはプログラムを読出し、または記憶媒体708にデータまたはプログラムを書込むドライバ回路を含む。記憶媒体708は、記憶媒体345と同様に特徴を備える。
<Configuration of management server 710>
FIG. 17 is a diagram schematically showing an example of the hardware configuration of the management server 710 according to the present embodiment. The management server 710 is an embodiment of the "information processing device". With reference to FIG. 17, the management server 710 includes a CPU 701, a storage unit 702, a network controller 703, and a memory interface 707. The storage unit 702 includes a ROM 704 and a RAM 705 for storing programs and data executed by the CPU 701, and an HDD 706 for storing various types of information. The RAM 705 includes an area for storing various information and a work area for executing a program on the CPU 701. The network controller 703 includes a circuit such as a NIC for communicating with the information processing device 30 via the network 720. The memory interface 707 includes a driver circuit to which the storage medium 708 is detachably mounted to read data or a program from the mounted storage medium 708 or write data or a program to the storage medium 708. The storage medium 708 has the same characteristics as the storage medium 345.

本実施の形態では、情報処理装置30が備える処理部430および調整方法決定部418の機能は管理サーバー710のCPU701が実行するプログラムにより実現される。この場合は、CPU701は、各移動体の位置を時系列に取得し、取得された位置から相対位置関係(移動体間の距離と方向)を算出する。CPU701は、情報処理装置30から受信する機密度611と、算出した相対位置関係に基づき、情報の視認性を変更するための調整量613を算出して、情報処理装置30に送信する。これにより、情報処理装置30の透過率制御部419または画像出力制御部417は、管理サーバー710から受信した調整量613に従い、視認性を制御するための透過率614または表示制御データ615を生成することができる。 In the present embodiment, the functions of the processing unit 430 and the adjustment method determination unit 418 included in the information processing apparatus 30 are realized by a program executed by the CPU 701 of the management server 710. In this case, the CPU 701 acquires the positions of the moving bodies in time series, and calculates the relative positional relationship (distance and direction between the moving bodies) from the acquired positions. The CPU 701 calculates an adjustment amount 613 for changing the visibility of information based on the density 611 received from the information processing device 30 and the calculated relative positional relationship, and transmits the adjustment amount 613 to the information processing device 30. As a result, the transmittance control unit 419 or the image output control unit 417 of the information processing device 30 generates the transmittance 614 or the display control data 615 for controlling the visibility according to the adjustment amount 613 received from the management server 710. be able to.

また、情報処理装置30は、車外カメラ374または車内カメラ375によって撮像された画像を管理サーバー710に送信する。管理サーバー710は、情報処理装置30から受信する画像を、処理部430と同様に処理することにより、画像ファイル640を記憶部702に格納し、指標値テーブル650を生成することができる。CPU701は、生成された指標値テーブル650の漏洩可能性度654を用いて、視認性を制御するための調整量613を算出し、情報処理装置30に送信する。これにより、情報処理装置30の透過率制御部419または画像出力制御部417は、管理サーバー710から受信した漏洩可能性度654に基づく調整量613に従い、視認性を制御するための透過率614または表示制御データ615を生成することができる。 Further, the information processing device 30 transmits the image captured by the outside camera 374 or the inside camera 375 to the management server 710. The management server 710 can store the image file 640 in the storage unit 702 and generate the index value table 650 by processing the image received from the information processing device 30 in the same manner as the processing unit 430. The CPU 701 calculates the adjustment amount 613 for controlling the visibility by using the leakage possibility degree 654 of the generated index value table 650, and transmits it to the information processing apparatus 30. As a result, the transmittance control unit 419 or the image output control unit 417 of the information processing device 30 controls the transmittance 614 or the transmittance 614 for controlling the visibility according to the adjustment amount 613 based on the leakage possibility degree 654 received from the management server 710. Display control data 615 can be generated.

<コンテンツの表示と音声出力>
上記の会議はテレビ会議、チャット会議などを含んでも良い。これら会議では、情報の表示とともに、遠隔地の相手端末との通話の音声が車両100内の図示しないスピーカーから出力され得る。処理部430は、視認性変更処理において、車両100内のディスプレイ372を、表示を中断するように制御するとともに、通話の音声をスピーカーから出力させる。このように、車両100内では表示装置の表示が中断しているとき、相手端末には車内カメラ375の撮像画像(映像)が送信されて、相手端末のディスプレイに表示される。その後、漏洩可能性度654が「高」から「低」に変化すると、ディスプレイ372はコンテンツ610の情報の表示を再開する。
<Content display and audio output>
The above-mentioned conference may include a video conference, a chat conference, and the like. In these meetings, along with the display of information, the voice of a call with a remote terminal can be output from a speaker (not shown) in the vehicle 100. In the visibility change process, the processing unit 430 controls the display 372 in the vehicle 100 so as to interrupt the display, and outputs the voice of the call from the speaker. In this way, when the display of the display device is interrupted in the vehicle 100, the captured image (video) of the in-vehicle camera 375 is transmitted to the other terminal and displayed on the display of the other terminal. After that, when the leakage possibility degree 654 changes from "high" to "low", the display 372 resumes displaying the information of the content 610.

上記のテレビ会議またはチャット会議などでは、ディスプレイ372に表示される相手の顔等の画像が表示され得て、相手(人)によっては、表示される顔画像は情報の機密度に関係する。したがって、会議の参加メンバーの顔画像が車外から見えないように、ディスプレイ372を車外から見えにくいディスプレイ372に変更(例えばディスプレイ372−1からディスプレイ372−2または372−3に切り替える)または音声は出力するが画像表示は消す等で、情報を覗き見から保護することができる。 In the above-mentioned video conference or chat conference, an image of the face of the other party displayed on the display 372 can be displayed, and depending on the other party (person), the displayed face image is related to the sensitivity of information. Therefore, the display 372 is changed to a display 372 that is difficult to see from the outside of the vehicle (for example, switching from the display 372-1 to the display 372-2 or 372-3) or the sound is output so that the facial images of the members participating in the conference cannot be seen from the outside of the vehicle. However, the information can be protected from peeping by turning off the image display.

<変形例>
本実施の形態は、移動体内でコンテンツ610を出力するシチュエーションは会議に限定されない。具体的には、本実施の形態は、ユーザーがリモートワークとしてコンテンツ610を出力しながら個人作業をするというシチュエーションにも適用することができる。個人作業のシチュエーションは、たとえば、ユーザーが車両100内で仕事をしながら出張先または通勤先に移動するケースを含み得る。
<Modification example>
In this embodiment, the situation in which the content 610 is output in the moving body is not limited to the conference. Specifically, this embodiment can also be applied to a situation in which a user performs personal work while outputting content 610 as remote work. The situation of personal work may include, for example, the case where the user moves to a business trip destination or a commuting destination while working in the vehicle 100.

また、上記の実施の形態では、コンテンツ610は、装置30を経由して、または装置30を経由せずに無線で移動体内のユーザー端末371にダウンロードされるとしたが、ユーザー端末371がコンテンツ610を取得する経路は、これに限定されない。例えば、ユーザーが移動体に乗車する前からユーザー端末371にコンテンツ610が格納されていてもよい。 Further, in the above embodiment, the content 610 is wirelessly downloaded to the user terminal 371 in the moving body via or without the device 30, but the user terminal 371 is the content 610. The route to obtain is not limited to this. For example, the content 610 may be stored in the user terminal 371 even before the user gets on the moving body.

また、機密度取得部410による機密度611の取得経路は、コンテンツ610に付加された機密度を示す属性情報609から取得する経路に限定されない。他の取得経路では、たとえば、コンテンツ610が通信するデータの種類を、機密度を示す属性情報609として扱うことができる。この場合、機密度取得部410は、機密度を示す属性情報609からコンテンツ610の通信データが社内サーバー内のデータと判定する場合は機密度611は大、当該通信データが一般に公開されているWebデータと判定する場合は機密度611は小と、それぞれ判定する。 Further, the acquisition route of the density 611 by the density acquisition unit 410 is not limited to the route acquired from the attribute information 609 indicating the density added to the content 610. In another acquisition route, for example, the type of data communicated by the content 610 can be treated as the attribute information 609 indicating the sensitivity. In this case, when the machine density acquisition unit 410 determines that the communication data of the content 610 is the data in the in-house server from the attribute information 609 indicating the machine density, the machine density 611 is large, and the communication data is open to the public on the Web. When it is determined to be data, it is determined that the machine density 611 is small.

また、他の取得経路では、ディスプレイ372に表示されるコンテンツの画像を車内カメラ375で撮像した撮像画像を機密度を示す属性情報609として扱うことができる。この場合、機密度取得部410は、当該撮像画像を画像認識処理し、画像認識処理の結果に基づき、コンテンツ画像のタイトルに「機密」または「秘」等の文字が含まれている否かを、例えばパターンマッチング等で判定し、判定の結果に基づき機密度611を判定する。 Further, in another acquisition route, the captured image obtained by capturing the image of the content displayed on the display 372 with the in-vehicle camera 375 can be treated as the attribute information 609 indicating the density. In this case, the density acquisition unit 410 performs image recognition processing on the captured image, and based on the result of the image recognition processing, determines whether or not the title of the content image contains characters such as "confidential" or "secret". For example, it is determined by pattern matching or the like, and the machine density 611 is determined based on the determination result.

また、他の取得経路として、ディスプレイ372に表示されるコンテンツの画像に含まれる被写体像を機密度取得部410は、たとえば、ディスプレイ372に表示中のコンテンツ画像がテレビ会議の画像(会議の参加者が表示されている状態)であれば機密度611は大と判定する。 Further, as another acquisition route, the sensitivity acquisition unit 410 obtains a subject image included in the image of the content displayed on the display 372, for example, the content image displayed on the display 372 is an image of a video conference (conference participants). If (is displayed), the machine density 611 is determined to be high.

また、他の取得経路として、紙380の印刷情報をスキャンして読み取った情報から機密度611を取得してもよい。例えば、スキャンして読み取られた情報に含まれる特定の文字(“守秘”、“社外秘”などの機密性を表す文字)または特定の絵(“守秘”、“社外秘”などの機密性を表すスタンプ)などを含む。また、コンテンツ610が格納されている場所(記憶領域)を示すパス(URL:Uniform Resource Locator)、情報の識別子(ファイル名)、情報の種類(ファイルの拡張子)を機密度を示す属性情報609としてもよい。機密度取得部410は、このような属性情報609から機密度611を取得することができる。また、上記のパスまたは情報の種類が、当該情報を用いたユーザーの作業内容(経理、人事、製品開発などの作業内容)を表す場合には、機密度を示す属性情報609として作業内容を含めることもできる。 Further, as another acquisition route, the machine density 611 may be acquired from the information obtained by scanning the print information of the paper 380. For example, a specific character (character indicating confidentiality such as "confidentiality" or "confidentiality") or a specific picture (stamp indicating confidentiality such as "confidentiality" or "confidentiality") contained in the scanned and read information. ) Etc. are included. In addition, the path (URL: Uniform Resource Locator) indicating the location (storage area) where the content 610 is stored, the information identifier (file name), the information type (file extension), and the attribute information 609 indicating the sensitivity. May be. The machine density acquisition unit 410 can acquire the machine density 611 from such attribute information 609. In addition, when the above path or information type represents the work content (work content of accounting, human resources, product development, etc.) of the user using the information, the work content is included as attribute information 609 indicating the sensitivity. You can also do it.

また、上記の実施の形態では、視認性の変更は、表示装置の切替え、情報の輝度の変更、および窓の透過率の変更のうちの1つ、または2つ以上を組合わせて実現することもできる。 Further, in the above-described embodiment, the change in visibility is realized by switching the display device, changing the brightness of information, and changing the transmittance of the window by one or a combination of two or more. You can also.

<プログラム>
本実施の形態では、上記に述べた処理を情報処理装置30に実行させるためのプログラムが提供される。このようなプログラムは、少なくとも上記の図8または図9のフローチャートに従う処理のプログラムを含む。情報処理装置30のコンピューターに付属する記憶媒体345、フレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピューター読み取り可能な記憶媒体に記録させて、プログラム製品として提供することもできる。あるいは、コンピューターに内蔵するHDD310などの記憶媒体にて記録させて、プログラムを提供することもできる。また、ネットワーク720を介したダウンロードによって、プログラムを提供することもできる。プログラムは、CPU300などの1つ以上のプロセッサにより、またはプロセッサとASIC,FPGAなどの回路との組合せにより実行され得る。
<Program>
In the present embodiment, a program for causing the information processing apparatus 30 to execute the above-described processing is provided. Such a program includes at least a program of processing according to the flowchart of FIG. 8 or FIG. 9 described above. As a program product, it is recorded on a computer-readable storage medium such as a storage medium 345, a flexible disk, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card attached to the computer of the information processing apparatus 30. It can also be provided. Alternatively, the program can be provided by recording on a storage medium such as HDD 310 built in the computer. The program can also be provided by downloading via the network 720. The program can be executed by one or more processors such as a CPU 300, or by a combination of a processor and a circuit such as an ASIC, FPGA.

また、本実施の形態では、上記に述べた処理を管理サーバー710に実行させるためのプログラムが提供される。このようなプログラムは、少なくとも上記の図8または図9のフローチャートに従う処理のプログラムを含む。管理サーバー710のコンピューターに付属する記憶媒体708、フレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピューター読み取り可能な記憶媒体に記録させて、プログラム製品として提供することもできる。あるいは、コンピューターに内蔵するHDD706などの記憶媒体にて記録させて、プログラムを提供することもできる。また、ネットワーク720を介したダウンロードによって、プログラムを提供することもできる。プログラムは、CPU701などの1つ以上のプロセッサにより、またはプロセッサとASIC,FPGAなどの回路との組合せにより実行され得る。 Further, in the present embodiment, a program for causing the management server 710 to execute the process described above is provided. Such a program includes at least a program of processing according to the flowchart of FIG. 8 or FIG. 9 described above. Recorded on a computer-readable storage medium such as a storage medium 708 attached to the computer of the management server 710, a flexible disk, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card, and provided as a program product. You can also do it. Alternatively, the program can be provided by recording on a storage medium such as HDD 706 built in the computer. The program can also be provided by downloading via the network 720. The program can be executed by one or more processors such as CPU 701, or by a combination of processors and circuits such as ASIC, FPGA.

なお、プログラムは、コンピューターのOSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して、プロセッサに処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、各実施の形態のプログラムに含まれ得る。 The program may be a program module provided as a part of the OS of the computer, which calls necessary modules in a predetermined array at a predetermined timing and causes the processor to execute the process. In that case, the program itself does not include the above module and the process is executed in cooperation with the OS. A program that does not include such a module may also be included in the program of each embodiment.

また、本実施の形態にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して、プロセッサに処理を実行させる。このような他のプログラムに組込まれたプログラムも、本実施の形態にかかるプログラムに含まれ得る。 Further, the program according to the present embodiment may be provided by being incorporated into a part of another program. Even in that case, the program itself does not include the modules included in the other program, and causes the processor to execute the process in cooperation with the other program. A program incorporated in such another program may also be included in the program according to the present embodiment.

<実施の形態の効果>
本実施の形態では、テレワークのための移動体である車両100の車内において提供されるモビリティオフィスにおいて、表示されるコンテンツ610の情報を他の移動体の覗き見から保護することができる。
<Effect of embodiment>
In the present embodiment, the information of the content 610 displayed in the mobility office provided in the vehicle of the vehicle 100, which is a mobile body for telework, can be protected from the peeping of other mobile bodies.

覗き見からの保護は、自移動体(車両100)の周辺に存在する他の移動体(より特定的には車両110の乗員111)と当該自移動体との相対位置関係と当該コンテンツ610の機密度611とに従い、当該情報の視認性を変更することで実施する。これにより、相対位置関係により他の移動体により情報が覗き見される可能性が高いときは、視認性を低くすることで、覗き見を防止することができる。 The protection from peeping is the relative positional relationship between the other moving body (more specifically, the occupant 111 of the vehicle 110) existing around the self-moving body (vehicle 100) and the self-moving body and the content 610. This is carried out by changing the visibility of the information according to the machine density 611. As a result, when there is a high possibility that the information is peeped by another moving body due to the relative positional relationship, the peeping can be prevented by lowering the visibility.

したがって、モビリティオフィス内では、ユーザーは、取り扱うコンテンツ610に関するセキュリティを意識することなく作業に集中することができる。 Therefore, in the mobility office, the user can concentrate on the work without being aware of the security of the content 610 to be handled.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims, not the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

30 情報処理装置、41 第1分析部、42 第2分析部、50 走行制御システム、100,110 車両、111 乗員、350 GPS受信機、371 ユーザー端末、372 ディスプレイ、373 偏光調整装置、374,3741,3742,3743 車外カメラ、375 車内カメラ、376 近接センサー、378,3781,3782,3783,A,B,C 窓、379 携帯端末、380 紙、400 システムプログラム、410 機密度取得部、411 近接度検出部、412 カメラ画像分析部、413 移動体タグ生成部、414 相対位置関係算出部、415 視線検出部、416 描画部、417 画像出力制御部、418 調整方法決定部、419 透過率制御部、420 通信制御部、430 処理部、500 格納部、501 アプリケーションプログラム、610 コンテンツ、611 機密度、612 相対位置関係、613 調整量、614 透過率、615 表示制御データ、616 輝度制御信号、620 機密度テーブル、630 漏洩可能性テーブル、631,6311,6312,6313,6314 指標、632 加算値、640 画像ファイル、641 フラグ、642 タグ、643 画像、650 指標値テーブル、654 漏洩可能性度、700 GPS衛星、710 管理サーバー、711,712 位置、720 ネットワーク、900 ケーブル、3701,3702,3703 ガラス。 30 Information processing equipment, 41 1st analysis unit, 42 2nd analysis unit, 50 Driving control system, 100, 110 Vehicles, 111 occupants, 350 GPS receivers, 371 user terminals, 372 displays, 373 polarization adjusters, 374,3741 , 3742,3743 Outside camera, 375 Inside camera, 376 Proximity sensor, 378,3781,3782,3783, A, B, C windows, 379 mobile terminal, 380 paper, 400 system program, 410 density acquisition unit, 411 proximity Detection unit, 412 camera image analysis unit, 413 moving object tag generation unit, 414 relative positional relationship calculation unit, 415 line-of-sight detection unit, 416 drawing unit, 417 image output control unit, 418 adjustment method determination unit, 419 transmission rate control unit, 420 Communication control unit, 430 processing unit, 500 storage unit, 501 application program, 610 content, 611 density, 612 relative positional relationship, 613 adjustment amount, 614 transmission rate, 615 display control data, 616 brightness control signal, 620 density Table, 630 Leakage Potential Table, 631, 6311, 6312, 6313, 6314 Indicators, 632 Additions, 640 Image Files, 641 Flags, 642 Tags, 643 Images, 650 Indicator Values Table, 654 Leakage Potential, 700 GPS Satellites , 710 management server, 711,712 location, 720 network, 900 cable, 3701, 3702, 3703 glass.

Claims (20)

第1移動体の周辺に存在する他の移動体と前記第1移動体との相対位置関係を取得する位置関係取得手段と、
第1移動体内に備えられる表示装置によって出力され得る情報の機密度を示す属性情報を取得する属性取得手段と、
前記表示装置によって出力される情報の視認性を変更する視認性変更手段と、を備え、
前記視認性変更手段は、
前記情報の視認性を、前記相対位置関係と当該情報の前記属性情報が示す前記機密度とに従い変更する、情報処理装置。
A positional relationship acquisition means for acquiring a relative positional relationship between another moving body existing around the first moving body and the first moving body, and
An attribute acquisition means for acquiring attribute information indicating the sensitivity of information that can be output by a display device provided in the first moving body, and an attribute acquisition means.
A visibility changing means for changing the visibility of information output by the display device is provided.
The visibility changing means is
An information processing device that changes the visibility of the information according to the relative positional relationship and the density indicated by the attribute information of the information.
前記相対位置関係は、前記第1移動体から前記他の移動体までの距離と、前記他の移動体の前記第1移動体からの方向を含む、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the relative positional relationship includes a distance from the first moving body to the other moving body and a direction of the other moving body from the first moving body. 前記相対位置関係は、さらに、前記他の移動体が前記第1移動体に接近している度合いを含む、請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the relative positional relationship further includes the degree to which the other moving body is close to the first moving body. 前記他の移動体は、人を含み、
前記周辺を撮像する外部カメラと、
前記外部カメラが撮像した画像に含まれる前記人の画像から、当該人の視線を検出する手段を、さらに備え、
前記情報処理装置は、
前記人の視線から前記表示装置で出力される情報が視認される可能性の度合いを取得し、
前記視認性変更手段は、さらに、
前記情報の視認性を、前記相対位置関係と、前記機密度と、前記視認される可能性の度合いとに従い変更する、請求項1から3のいずれか1項に記載の情報処理装置。
The other mobiles include humans
An external camera that captures the surrounding area and
A means for detecting the line of sight of the person from the image of the person included in the image captured by the external camera is further provided.
The information processing device
The degree of possibility that the information output by the display device is visually recognized from the line of sight of the person is acquired.
The visibility changing means further
The information processing apparatus according to any one of claims 1 to 3, wherein the visibility of the information is changed according to the relative positional relationship, the density, and the degree of possibility of being visually recognized.
前記視認される可能性の度合いは、前記人が前記第1移動体を凝視した時間、および当該人の前記第1移動体に対する視線が検出された頻度に基づいている、請求項4に記載の情報処理装置。 The degree of possibility of being visually recognized is based on the time when the person stares at the first moving body and the frequency at which the person's line of sight to the first moving body is detected. Information processing device. 前記表示装置によって出力される情報の視認性の変更は、当該情報の出力態様の変更を含む、請求項1から5のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, wherein the change in the visibility of the information output by the display device includes a change in the output mode of the information. 前記第1移動体内には複数の前記表示装置が備えられ、
前記出力態様の変更は、前記情報を出力する表示装置の切替えを含む、請求項6に記載の情報処理装置。
A plurality of the display devices are provided in the first moving body.
The information processing device according to claim 6, wherein the change in the output mode includes switching of a display device that outputs the information.
各前記複数の表示装置の向きと前記相対位置関係に基づき、前記複数の表示装置のうちから前記情報を出力する表示装置を決定する、請求項7に記載の情報処理装置。 The information processing device according to claim 7, wherein a display device that outputs the information is determined from the plurality of display devices based on the orientation of each of the plurality of display devices and the relative positional relationship. 前記第1移動体の内部を撮影する内部カメラをさらに備え、
前記内部カメラが撮像した画像から前記各表示装置の向きを検出する、請求項8に記載の情報処理装置。
An internal camera for photographing the inside of the first moving body is further provided.
The information processing device according to claim 8, wherein the orientation of each display device is detected from an image captured by the internal camera.
前記相対位置関係は、前記第1移動体から前記他の移動体までの距離と、前記他の移動体の前記第1移動体からの方向を含み、
前記各表示装置の向きは、当該表示装置が備える画面の向きを含み、
前記表示装置のうち、その画面の向きが前記他の移動体の前記第1移動体からの方向と異なる前記表示装置を、前記情報を出力する表示装置として決定する、請求項9に記載の情報処理装置。
The relative positional relationship includes the distance from the first moving body to the other moving body and the direction of the other moving body from the first moving body.
The orientation of each display device includes the orientation of the screen included in the display device.
The information according to claim 9, wherein among the display devices, the display device whose screen orientation is different from the direction of the other moving body from the first moving body is determined as a display device for outputting the information. Processing equipment.
前記内部カメラが撮像した、前記第1移動体内に居る1以上のユーザーの画像から各ユーザーの向きを検出し、
前記各表示装置の向き、前記相対位置関係および前記各ユーザーの向きに基づき、前記情報を出力する表示装置を決定する、請求項9に記載の情報処理装置。
The orientation of each user is detected from the images of one or more users in the first moving body taken by the internal camera.
The information processing device according to claim 9, wherein a display device that outputs the information is determined based on the orientation of each display device, the relative positional relationship, and the orientation of each user.
前記複数の表示装置のうち、その画面の向きが前記他の移動体の前記第1移動体からの方向と異なり、かつ1以上の前記ユーザーの向きが当該画面に対向する表示装置を、前記情報を出力する表示装置として決定する、請求項11に記載の情報処理装置。 Among the plurality of display devices, the information indicates that the display device whose screen orientation is different from the orientation of the other moving object from the first moving object and whose user's orientation faces the screen. The information processing device according to claim 11, which is determined as a display device for outputting the above. 前記出力態様の変更は、前記表示装置により出力される情報の輝度の変更を含む、請求項6から12のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 6 to 12, wherein the change in the output mode includes a change in the brightness of the information output by the display device. 前記第1移動体内には、前記情報を印刷する画像処理装置が備えられ、
前記出力態様の変更は、前記情報を前記画像処理装置によって印刷することを含む、請求項6から13のいずれか1項に記載の情報処理装置。
An image processing device for printing the information is provided in the first moving body.
The information processing apparatus according to any one of claims 6 to 13, wherein the modification of the output mode includes printing the information by the image processing apparatus.
前記第1移動体は窓を備え、
前記視認性変更手段は、
前記相対位置関係と前記情報の属性に基づく前記機密度とに従い前記窓のガラスの透過率を変更する、請求項1から14のいずれか1項に記載の情報処理装置。
The first moving body has a window and
The visibility changing means is
The information processing apparatus according to any one of claims 1 to 14, wherein the transmittance of the glass of the window is changed according to the relative positional relationship and the density based on the attribute of the information.
前記周辺の前記他の移動体をセンシングするセンサーを備え、
前記位置関係取得手段は、
各移動体の位置を管理するサーバーから受信する位置情報、または、前記センサーの出力から、前記相対位置関係を取得する、請求項1から15のいずれか1項に記載の情報処理装置。
A sensor that senses the other moving body in the vicinity is provided.
The positional relationship acquisition means
The information processing apparatus according to any one of claims 1 to 15, wherein the relative positional relationship is acquired from the position information received from the server that manages the position of each moving body or the output of the sensor.
前記視認性は、前記他の移動体から前記第1移動体内の前記表示装置で出力される情報を、視覚によって捉えることができる容易性を含む、請求項1から16のいずれか1項に記載の情報処理装置。 The visibility according to any one of claims 1 to 16, including the ease in which information output from the other moving body by the display device in the first moving body can be visually grasped. Information processing device. 移動体の位置を管理するサーバーと、
前記サーバーと通信する第1移動体に備えられる情報処理装置と、を含み、
前記情報処理装置は、
前記第1移動体の周辺に存在する他の移動体と前記第1移動体との相対位置関係を前記サーバーから受信する位置関係取得手段と、
第1移動体内に備えられる表示装置によって出力され得る情報の機密度に対応する属性を取得する属性取得手段と、
前記表示装置によって出力される情報の視認性を変更する視認性変更手段と、を備え、
前記視認性変更手段は、
前記情報の視認性を、前記相対位置関係と当該情報の前記属性に基づく前記機密度とに従い変更する、システム。
A server that manages the location of mobiles and
Including an information processing device provided in the first mobile body communicating with the server.
The information processing device
A positional relationship acquisition means for receiving the relative positional relationship between the first moving body and another moving body existing around the first moving body from the server, and
An attribute acquisition means for acquiring attributes corresponding to the sensitivity of information that can be output by a display device provided in the first moving body, and
A visibility changing means for changing the visibility of information output by the display device is provided.
The visibility changing means is
A system that changes the visibility of the information according to the relative positional relationship and the density based on the attribute of the information.
コンピューターが実行する情報処理方法であって、
第1移動体の周辺に存在する他の移動体と前記第1移動体との相対位置関係を取得するステップと、
第1移動体内に備えられる表示装置によって出力され得る情報の機密度を示す属性情報を取得するステップと、
前記表示装置によって出力される情報の視認性を変更するステップと、を備え、
前記視認性を変更するステップでは、
前記情報の視認性を、前記相対位置関係と当該情報の前記属性情報が示す前記機密度とに従い変更する、情報処理方法。
Information processing method executed by a computer
A step of acquiring a relative positional relationship between another moving body existing around the first moving body and the first moving body, and
A step of acquiring attribute information indicating the sensitivity of information that can be output by a display device provided in the first moving body, and
A step of changing the visibility of the information output by the display device is provided.
In the step of changing the visibility,
An information processing method for changing the visibility of the information according to the relative positional relationship and the density indicated by the attribute information of the information.
請求項19に記載の情報処理方法をコンピューターに実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to claim 19.
JP2019142960A 2019-08-02 2019-08-02 Information processing device, system, information processing method, and program Pending JP2021026442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019142960A JP2021026442A (en) 2019-08-02 2019-08-02 Information processing device, system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142960A JP2021026442A (en) 2019-08-02 2019-08-02 Information processing device, system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021026442A true JP2021026442A (en) 2021-02-22

Family

ID=74663892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142960A Pending JP2021026442A (en) 2019-08-02 2019-08-02 Information processing device, system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021026442A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116561829A (en) * 2023-07-04 2023-08-08 广州思涵信息科技有限公司 Safety protection method, device, equipment and storage medium of display equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116561829A (en) * 2023-07-04 2023-08-08 广州思涵信息科技有限公司 Safety protection method, device, equipment and storage medium of display equipment
CN116561829B (en) * 2023-07-04 2024-04-02 广州思涵信息科技有限公司 Safety protection method, device, equipment and storage medium of display equipment

Similar Documents

Publication Publication Date Title
US20240127496A1 (en) Ar display apparatus and ar display method
US20200372792A1 (en) Crowdsourced realtime traffic images and videos
US10281721B2 (en) System and method for augmented reality head up display for vehicles
JP6747551B2 (en) Eyeglass-type wearable terminal, its control program, and notification method
US20200272826A1 (en) Investigation assist system and investigation assist method
US20150094118A1 (en) Mobile device edge view display insert
CN110979318B (en) Lane information acquisition method and device, automatic driving vehicle and storage medium
US11165955B2 (en) Album generation apparatus, album generation system, and album generation method
CN106796755A (en) Strengthen the security system of road surface object on HUD
US20230245462A1 (en) Systems and methods of legibly capturing vehicle markings
JP2022169621A (en) Reproduction device, reproduction method, program for the same, recording apparatus, and control method of recording apparatus
CN105882528A (en) Road condition sharing method and device of balance car and balance car
CN105677206A (en) System and method for controlling head-up display based on vision
CN107627969A (en) Change the method, apparatus and computer-readable storage medium of body color
CN109556625A (en) Air navigation aid, device, navigation equipment and storage medium based on front windshield
CN106202193A (en) The method of road image acquisition of information, Apparatus and system
US20200202146A1 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
JP2021026442A (en) Information processing device, system, information processing method, and program
JP2023109754A (en) Ar display device, ar display method and program
KR101416457B1 (en) Road crime prevention system using recognition of opposite direction drive and pedestrian
JP6146017B2 (en) Mobile terminal device
JP2007248749A (en) Device, method and program for adjusting display screen, and recording medium
JP7420441B2 (en) Information processing device, information processing method and program
JP2022184329A (en) Managing device, managing system and managing method
CN115767249A (en) Photographing method, electronic equipment and vehicle