JP7073116B2 - Office virtual reality system and office virtual reality program - Google Patents

Office virtual reality system and office virtual reality program Download PDF

Info

Publication number
JP7073116B2
JP7073116B2 JP2018008457A JP2018008457A JP7073116B2 JP 7073116 B2 JP7073116 B2 JP 7073116B2 JP 2018008457 A JP2018008457 A JP 2018008457A JP 2018008457 A JP2018008457 A JP 2018008457A JP 7073116 B2 JP7073116 B2 JP 7073116B2
Authority
JP
Japan
Prior art keywords
user
information
office
processing device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018008457A
Other languages
Japanese (ja)
Other versions
JP2019128683A (en
Inventor
章弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SYSTEM INTELLIGENT CORP.
Original Assignee
SYSTEM INTELLIGENT CORP.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SYSTEM INTELLIGENT CORP. filed Critical SYSTEM INTELLIGENT CORP.
Priority to JP2018008457A priority Critical patent/JP7073116B2/en
Publication of JP2019128683A publication Critical patent/JP2019128683A/en
Application granted granted Critical
Publication of JP7073116B2 publication Critical patent/JP7073116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、バーチャルリアリティ技術に関し、特にオフィス用のバーチャルリアリティシステムに関する。 The present invention relates to virtual reality techniques, especially virtual reality systems for offices.

近年、働き方改革の実行ために、多くの企業において、社員に対してオフィスに出勤することを必須とすることなく、在宅勤務を行うことが認められつつある。
一方、在宅で仕事をする場合には、機密資料を家に持ち帰えると、家のパソコンから機密情報が漏洩する虞がある。また、機密ファイルをノートパソコンなどに入れて持ち帰えると、そのノートパソコンを紛失したり、盗難したりする結果として、機密情報が漏洩する場合があるなど、情報セキュリティの観点から危険性が高まる虞がある。
そこで、このような問題を解決するために、従来からシンクライアントという仕組みが提案されている。
In recent years, in order to implement work style reforms, many companies are allowing employees to work from home without requiring them to go to the office.
On the other hand, when working from home, if confidential materials can be taken home, there is a risk that confidential information will be leaked from the personal computer at home. In addition, if you put a confidential file in a laptop computer and take it home, the risk may increase from the viewpoint of information security, such as the leakage of confidential information as a result of the laptop computer being lost or stolen. There is.
Therefore, in order to solve such a problem, a mechanism called a thin client has been conventionally proposed.

特開平9-288645号公報Japanese Unexamined Patent Publication No. 9-288645 特開平10-254851号公報Japanese Unexamined Patent Publication No. 10-254851 特開2001-265872号公報Japanese Unexamined Patent Publication No. 2001-265872 特開2007-228294号公報Japanese Unexamined Patent Publication No. 2007-228294

ところが、シンクライアントの仕組みは、一般的に単に会社にあるコンピュータの画面を家にあるコンピュータや持ち歩いているノートパソコンなどに転送するものであり、実際に会社で仕事をしている環境とは大きく異なるものとなっている。
すなわち、例えばオフィスに出勤すれば隣で同僚が仕事をしており、すぐに会話をして情報交換や打ち合わせを行うことが可能である。また、会議室に集まって、より多くの人と打ち合わせを行うことなども容易に行うことが可能である。
However, the mechanism of the thin client is generally to simply transfer the screen of the computer in the office to the computer at home or the laptop computer that you carry around, which is much different from the environment where you actually work at the office. It's different.
That is, for example, if you go to work in the office, a colleague is working next to you, and you can immediately have a conversation and exchange information or have a meeting. In addition, it is possible to easily gather in a conference room and have a meeting with more people.

さらに、勤怠管理の側面においては、オフィスに出勤する場合には、タイムカードなどの仕組みにより、仕事時間とプライベートの時間を明確に切り分けることができるが、在宅で仕事をする場合には、仕事をしている姿を誰にも見られることがないため、仕事とプライベートの時間の区別が曖昧になるという問題があった。 Furthermore, in terms of attendance management, when going to work in the office, it is possible to clearly separate work time and private time by a mechanism such as a time card, but when working from home, work is done. There was a problem that the distinction between work and private time became ambiguous because no one could see him doing it.

そこで、本発明者は、従来のシンクライアントを使った在宅勤務の欠点を解消するために、社員が在宅で仕事行っていながら、あたかも実際のオフィスに出勤をしているように感じることができ、コミュニケーションが希薄になったり、勤怠管理が曖昧になったりすることのない仕組みについて研究を行った。 Therefore, in order to eliminate the drawbacks of working from home using a conventional thin client, the present inventor can feel as if the employee is working from home while working at an actual office. We researched a mechanism that does not dilute communication or obscure attendance management.

ここで、仮想のオフィス用システムに関連する技術としては、特許文献1に記載の仮想オフィスシステムを挙げることができる。この技術によれば、利用者の個人のオフィスに他の利用者の映像情報と音声情報を立体的に表示させることができるとされている。また、特許文献2に記載の仮想オフィスシステムでは、利用者の集中度と気配を、他の利用者に伝達することができるとされている。しかしながら、これらは、利用者に対して実際のオフィスに出勤をして仕事をしているように感じられる程度の環境を提供するものではなかった。 Here, as a technique related to a virtual office system, the virtual office system described in Patent Document 1 can be mentioned. According to this technique, it is said that the video information and audio information of other users can be displayed three-dimensionally in the user's personal office. Further, in the virtual office system described in Patent Document 2, it is said that the concentration level and the sign of the user can be transmitted to other users. However, these did not provide the user with an environment in which they felt as if they were working in an actual office.

さらに、特許文献3に記載の仮想オフィスは、オフィス内の状況を平面的に表示することによって誰が仕事をしているかなどを確認可能にしたものであり、社員が在宅で仕事行っていながら、あたかも実際のオフィスに出勤をしているように感じることができ、コミュニケーションが希薄になったり、勤怠管理が曖昧になったりすることを解消可能なものではなかった。
また、特許文献4に記載の仮想オフィスシステムは、シンクライアントタイプの情報処理システムにおいて、情報処理装置間でネットワークを介してVPN(virtual private network)を確立する技術に関するものであり、上記課題を解消可能なものではなかった。
Further, the virtual office described in Patent Document 3 makes it possible to confirm who is working by displaying the situation in the office in a plane, and it is as if the employee is working from home. I felt like I was going to work in the actual office, and it was not possible to eliminate the weak communication and ambiguous attendance management.
Further, the virtual office system described in Patent Document 4 relates to a technique for establishing a VPN (virtual private network) between information processing devices via a network in a thin client type information processing system, and solves the above-mentioned problems. It wasn't possible.

そこで、本発明者は鋭意研究して、社員が在宅で仕事をしているにも拘わらず、実際のオフィスに出勤をしているように感じることができ、コミュニケーションが希薄になったり、勤怠管理があいまいになったりすることのない仮想オフィス用システムを開発して、本発明を完成させた。
具体的には、VR(バーチャルリアリティ,仮想現実)の技術を用いて、オフィスのコンピュータと在宅勤務を行う社員のコンピュータにより仮想的なオフィス(以下、VRオフィスと称する場合がある。)を構築し、このVRオフィスにより、社員に対してあたかも実際にオフィスに出勤しているかのような環境を提供することが可能なオフィス用バーチャルリアリティ(VR)システム、及びオフィス用バーチャルリアリティ(VR)プログラムを開発した。
Therefore, the inventor of the present invention can study diligently and feel that the employee is working at the actual office even though the employee is working from home, and communication is weakened or attendance management is performed. We have completed the present invention by developing a system for virtual offices that does not obscure.
Specifically, using VR (Virtual Reality) technology, a virtual office (hereinafter, may be referred to as VR office) is constructed by using an office computer and a computer of an employee who works from home. , Developed an office virtual reality (VR) system and an office virtual reality (VR) program that can provide employees with an environment as if they were actually working in the office. bottom.

このような本発明のオフィス用VRシステム、及びオフィス用VRプログラムによれば、インターネットに接続することが可能な場所であれば、世界のどこからでもVRオフィスに出勤することが可能である。すなわち、例えば地球の裏側から実際のオフィスに毎日出勤することは現在においては不可能であるが、VRオフィスであれば実現することが可能である。
また、世界には様々な事情によって、会社や仕事の少ない国や地域が多く存在しているが、そういった国や地域の人々に対しても、オフィスで働く環境を提供することが可能となる。
According to the office VR system and the office VR program of the present invention, it is possible to go to the VR office from anywhere in the world wherever it is possible to connect to the Internet. That is, for example, it is currently impossible to go to the actual office every day from the other side of the earth, but it is possible if it is a VR office.
In addition, there are many countries and regions in the world where there are few companies and jobs due to various circumstances, and it is possible to provide an environment where people in those countries and regions can work in the office.

さらに、今後、人々の仕事のスタイルとして、会社に勤めて働くだけでなく、能力のある人々が一時的にネットワークなどを使って知り合って仕事を開始し、仕事が完了したら解散するといった形が、世界中で起こっていくと予測されている。
これまでは、そのための場所として、実際のオフィスを準備する必要があったが、VRオフィスを使用することにより、容易に仕事を行う場所を確保でき、仕事が完了したら、VRオフィスを削除することも容易であるため、このような仕事のスタイルに対しても有益となる。
Furthermore, in the future, as a work style of people, not only working at a company, but also talented people temporarily get to know each other using a network etc. and start work, and when the work is completed, it will be disbanded. It is predicted to happen all over the world.
Until now, it was necessary to prepare an actual office as a place for that, but by using the VR office, you can easily secure a place to work, and when the work is completed, delete the VR office. Is also easy, which is beneficial for such work styles.

本発明は、上記の事情にかんがみなされたものであり、ユーザが在宅で仕事をしているにも拘わらず、実際のオフィスに出勤をしているように感じることができ、コミュニケーションが希薄になったり、勤怠管理があいまいになったりすることのないオフィス用VRシステム、及びオフィス用VRプログラムの提供を目的とする。 In the present invention, the above circumstances are taken into consideration, and even though the user is working from home, he / she can feel as if he / she is working in an actual office, and communication is weakened. The purpose is to provide an office VR system and an office VR program that do not obscure attendance management.

上記目的を達成するため、オフィスのVR(バーチャルリアリティ)画像をユーザ側情報処理装置に表示させ、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するためのオフィス用VRシステムであって、オフィス側記憶装置とVR処理装置とを有するオフィス用VR装置群、及び、前記オフィス用VR装置群と通信回線を介して接続された複数の前記ユーザ側情報処理装置を備え、前記オフィス側記憶装置が、ユーザの認証情報、VRオフィスにおけるユーザの位置情報、及び、VRオフィスにユーザがアクセスしたことを示す情報をユーザの識別情報ごとに記憶するユーザ記憶部、並びに、VRオフィスにおける一又は複数の部屋の三次元画像の配置情報を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像の配置情報を設備品の識別情報ごとに記憶するオフィス記憶部を備え、前記VR処理装置が、前記ユーザ側情報処理装置から送信されてきた認証情報が前記ユーザ記憶部に記憶されているユーザの認証情報に一致するか否かにもとづき認証の成否を判定する認証処理部、前記認証が成功した場合、前記ユーザがVRオフィスへアクセスしたことを示す情報を前記ユーザ記憶部に記録するアクセス記録部、及び、前記ユーザ記憶部に記憶されているVRオフィスにおけるユーザの位置情報と前記オフィス記憶部に記憶されている前記配置情報を入力し、前記位置情報と前記配置情報を含むVR情報を作成して前記ユーザ側情報処理装置に送信するVR情報作成部とを備え、前記ユーザ側情報処理装置が、ユーザの三次元画像をユーザの識別情報ごとに記憶し、VRオフィスにおける一又は複数の部屋の三次元画像を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像を設備品の識別情報ごとに記憶する画像記憶部、前記VR情報作成部から送信されてきたVR情報と、前記画像記憶部に記憶されている前記ユーザの三次元画像、前記部屋の三次元画像、及び、前記設備品の三次元画像にもとづきVR画像を合成して当該ユーザ側情報処理装置に接続された表示装置により表示させるVR合成処理部、ユーザの認証情報を入力して前記VR処理装置へ送信する認証情報取得部、並びに、当該ユーザ側情報処理装置を使用しているユーザのVRオフィスにおける位置情報を取得して、当該ユーザの位置情報を前記VR処理装置へ送信するユーザ位置情報送信部を備えた構成としてある。 In order to achieve the above purpose, VR (Virtual Reality) image of the office is displayed on the user side information processing device, and VR for office to provide the user with a VR office that can perform business outside the office. The system includes an office VR device group having an office side storage device and a VR processing device, and a plurality of user side information processing devices connected to the office VR device group via a communication line. The office side storage device stores the user's authentication information, the user's position information in the VR office, and the information indicating that the user has accessed the VR office for each user's identification information, and the VR office. Office storage unit that stores the layout information of the three-dimensional image of one or more rooms in the VR office for each room identification information, and stores the layout information of the three-dimensional images of multiple equipment in the VR office for each equipment identification information. The VR processing device determines the success or failure of authentication based on whether or not the authentication information transmitted from the user-side information processing device matches the user's authentication information stored in the user storage unit. The authentication processing unit, the access recording unit that records information indicating that the user has accessed the VR office in the user storage unit when the authentication is successful, and the user in the VR office stored in the user storage unit. The VR information creation unit that inputs the position information and the arrangement information stored in the office storage unit, creates the VR information including the location information and the arrangement information, and transmits the VR information to the user-side information processing device. The user-side information processing device stores the user's three-dimensional image for each user's identification information, stores the three-dimensional image of one or more rooms in the VR office for each room identification information, and stores the user's three-dimensional image for each room identification information in the VR office. An image storage unit that stores three-dimensional images of a plurality of equipment for each identification information of the equipment, VR information transmitted from the VR information creation unit, and three dimensions of the user stored in the image storage unit. VR synthesis processing unit that synthesizes a VR image based on an image, a three-dimensional image of the room, and a three-dimensional image of the equipment and displays it on a display device connected to the information processing device on the user side, user authentication information The authentication information acquisition unit that inputs and sends to the VR processing device, and the position information in the VR office of the user who is using the user-side information processing device is acquired, and the position information of the user is processed in the VR. Outfit It is configured to include a user position information transmitting unit for transmitting to a device.

また、本発明オフィス用VRプログラムは、オフィス側記憶装置とVR(バーチャルリアリティ)処理装置とを有するオフィス用VR装置群、及び、前記オフィス用VR装置群と通信回線を介して接続された複数のユーザ側情報処理装置を用いて、オフィスのVR画像を前記ユーザ側情報処理装置に表示させ、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するためのオフィス用VRプログラムであって、前記オフィス側記憶装置を、ユーザの認証情報、VRオフィスにおけるユーザの位置情報、及び、VRオフィスにユーザがアクセスしたことを示す情報をユーザの識別情報ごとに記憶するユーザ記憶部、並びに、VRオフィスにおける一又は複数の部屋の三次元画像の配置情報を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像の配置情報を設備品の識別情報ごとに記憶するオフィス記憶部として機能させ、前記VR処理装置を、前記ユーザ側情報処理装置から送信されてきた認証情報が前記ユーザ記憶部に記憶されているユーザの認証情報に一致するか否かにもとづき認証の成否を判定する認証処理部、前記認証が成功した場合、前記ユーザがVRオフィスへアクセスしたことを示す情報を前記ユーザ記憶部に記録するアクセス記録部、及び、前記ユーザ記憶部に記憶されているVRオフィスにおけるユーザの位置情報と前記オフィス記憶部に記憶されている前記配置情報を入力し、前記位置情報と前記配置情報を含むVR情報を作成して前記ユーザ側情報処理装置に送信するVR情報作成部として機能させ、前記ユーザ側情報処理装置を、ユーザの三次元画像をユーザの識別情報ごとに記憶し、VRオフィスにおける一又は複数の部屋の三次元画像を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像を設備品の識別情報ごとに記憶する画像記憶部、前記VR情報作成部から送信されてきたVR情報と、前記画像記憶部に記憶されている前記ユーザの三次元画像、前記部屋の三次元画像、及び、前記設備品の三次元画像にもとづきVR画像を合成して当該ユーザ側情報処理装置に接続された表示装置により表示させるVR合成処理部、ユーザの認証情報を入力して前記VR処理装置へ送信する認証情報取得部、並びに、当該ユーザ側情報処理装置を使用しているユーザのVRオフィスにおける位置情報を取得して、当該ユーザの位置情報を前記VR処理装置へ送信するユーザ位置情報送信部として機能させる構成としてある。 Further, the VR program for an office of the present invention includes a VR device group for an office having an office-side storage device and a VR (virtual reality) processing device, and a plurality of VR devices for the office connected via a communication line. An office VR program for displaying a VR image of an office on the user side information processing device using a user side information processing device and providing a VR office capable of performing business outside the office to the user. A user storage unit that stores the user's authentication information, the user's position information in the VR office, and the information indicating that the user has accessed the VR office for each user's identification information in the office-side storage device. In addition, the arrangement information of the three-dimensional images of one or more rooms in the VR office is stored for each room identification information, and the arrangement information of the three-dimensional images of the plurality of equipments in the VR office is stored for each identification information of the equipments. The VR processing device is made to function as an office storage unit, and the VR processing device is authenticated based on whether or not the authentication information transmitted from the user-side information processing device matches the user authentication information stored in the user storage unit. The authentication processing unit that determines the success or failure of the VR office, the access recording unit that records information indicating that the user has accessed the VR office in the user storage unit, and the user storage unit that stores the information indicating that the user has accessed the VR office when the authentication is successful. VR that inputs the position information of the user in the VR office and the arrangement information stored in the office storage unit, creates VR information including the position information and the arrangement information, and transmits the VR information to the user side information processing device. It functions as an information creation unit, and the user-side information processing device stores the user's three-dimensional image for each user's identification information, and stores the three-dimensional image of one or more rooms in the VR office for each room identification information. An image storage unit that stores three-dimensional images of a plurality of equipment in a VR office for each identification information of the equipment, VR information transmitted from the VR information creation unit, and storage in the image storage unit. A VR synthesis processing unit that synthesizes a VR image based on the user's three-dimensional image, the room's three-dimensional image, and the equipment's three-dimensional image and displays it on a display device connected to the user-side information processing device. , The authentication information acquisition unit that inputs the user's authentication information and sends it to the VR processing device, and the location information in the VR office of the user who is using the user's information processing device is acquired. It is configured to function as a user position information transmitting unit that transmits the user's position information to the VR processing device.

本発明によれば、ユーザが在宅で仕事をしているにも拘わらず、実際のオフィスに出勤をしているように感じることができ、コミュニケーションが希薄になったり、勤怠管理があいまいになったりすることのないオフィス用VRシステム、及びオフィス用VRプログラムの提供が可能となる。 According to the present invention, the user can feel as if he / she is working at an actual office even though he / she is working from home, and communication is weakened or attendance management is ambiguous. It is possible to provide an office VR system and an office VR program that do not have to be done.

本発明の第一実施形態のオフィス用VRシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the VR system for office of 1st Embodiment of this invention. 本発明の第一実施形態のオフィス用VRシステムにおけるオフィス側記憶装置及びVR処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the office side storage apparatus and VR processing apparatus in the office VR system of 1st Embodiment of this invention. 本発明の第一実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user-side information processing apparatus in the office VR system of 1st Embodiment of this invention. 本発明の第一実施形態のオフィス用VRシステムにおけるVR処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the VR processing apparatus and the user side information processing apparatus in the office VR system of 1st Embodiment of this invention. 本発明の第二実施形態のオフィス用VRシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the office VR system of the 2nd Embodiment of this invention. 本発明の第二実施形態のオフィス用VRシステムにおけるシンクライアント処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the thin client processing apparatus in the office VR system of the 2nd Embodiment of this invention. 本発明の第二実施形態のオフィス用VRシステムにおけるシンクライアント処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the thin client processing apparatus and the user side information processing apparatus in the office VR system of the 2nd Embodiment of this invention. 本発明の第三実施形態のオフィス用VRシステムにおけるVR処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the VR processing apparatus in the office VR system of the 3rd Embodiment of this invention. 本発明の第三実施形態のオフィス用VRシステムにおけるVR処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the VR processing apparatus in the office VR system of the 3rd Embodiment of this invention. 本発明の第四実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user-side information processing apparatus in the office VR system of 4th Embodiment of this invention. 本発明の第四実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the user-side information processing apparatus in the office VR system of 4th Embodiment of this invention. 本発明の第五実施形態のオフィス用VRシステムにおけるVR処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the VR processing apparatus in the office VR system of the 5th Embodiment of this invention. 本発明の第五実施形態のオフィス用VRシステムにおけるVR処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the VR processing apparatus in the office VR system of the 5th Embodiment of this invention. 本発明の第六実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user-side information processing apparatus in the office VR system of the 6th Embodiment of this invention. 本発明の第六実施形態のオフィス用VRシステムにおけるVR処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the VR processing apparatus in the office VR system of the 6th Embodiment of this invention. 本発明の第六実施形態のオフィス用VRシステムにおけるVR処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the VR processing apparatus and the user side information processing apparatus in the office VR system of the 6th Embodiment of this invention.

以下、本発明のオフィス用VRシステム、及びオフィス用VRプログラムの好ましい実施形態について、図面を参照しつつ説明する。 Hereinafter, preferred embodiments of the office VR system and the office VR program of the present invention will be described with reference to the drawings.

[第一実施形態]
まず、本発明の第一実施形態について、図1~図4を参照して説明する。図1は、本実施形態のオフィス用VRシステムの構成を示すブロック図であり、図2は、同システムにおけるオフィス側記憶装置及びVR処理装置の構成を示すブロック図、図3は、同システムにおけるユーザ側情報処理装置の構成を示すブロック図である。図4は、同システムにおけるVR処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。
[First Embodiment]
First, the first embodiment of the present invention will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram showing a configuration of an office VR system of the present embodiment, FIG. 2 is a block diagram showing a configuration of an office-side storage device and a VR processing device in the system, and FIG. 3 is a block diagram of the system. It is a block diagram which shows the structure of the information processing apparatus on the user side. FIG. 4 is a flowchart showing a processing procedure of the VR processing device and the user-side information processing device in the system.

本実施形態のオフィス用VRシステムは、オフィスのVR画像をユーザ側情報処理装置に表示させ、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するためのオフィス用VRシステムであり、図1に示すように、オフィス側記憶装置100及びVR処理装置200を有するオフィス用VR装置群10と、オフィス用VR装置群10とインターネットなどのネットワーク(通信回線)を介して接続された複数のユーザ側情報処理装置20(20-1,20-2)とを備えている。なお、図1において、ユーザ側情報処理装置20は、2台のみ示されているが、3台以上であっても良い。 The office VR system of the present embodiment is an office VR system for displaying an office VR image on a user-side information processing device and providing a VR office capable of performing business outside the office to the user. As shown in FIG. 1, the office VR device group 10 having the office side storage device 100 and the VR processing device 200 is connected to the office VR device group 10 via a network (communication line) such as the Internet. It is equipped with a plurality of user-side information processing devices 20 (20-1, 20-2). Although only two user-side information processing devices 20 are shown in FIG. 1, three or more user-side information processing devices 20 may be used.

また、オフィス用VR装置群10は、WEB処理部300とIP電話装置400を有していても良い。さらに、オフィス側記憶装置100の機能の全部又は一部をVR処理装置200に設ける構成としても良く、WEB処理部300及び/又はIP電話装置400の機能の全部又は一部をVR処理装置200にまとめて設ける構成としても良い。 Further, the office VR device group 10 may have a WEB processing unit 300 and an IP telephone device 400. Further, all or part of the functions of the office side storage device 100 may be provided in the VR processing device 200, and all or part of the functions of the WEB processing unit 300 and / or the IP telephone device 400 may be provided in the VR processing device 200. It may be configured to be provided collectively.

オフィス側記憶装置100は、図2に示すように、ユーザ記憶部101、及びオフィス記憶部102を備えている。
ユーザ記憶部101は、ユーザの識別情報、ユーザの生体情報、VRオフィスにおけるユーザの位置情報、VRオフィスへアクセスしたことを示す情報(ユーザのアクセス時刻情報など)を記憶する。また、ユーザ記憶部101に、当該ユーザが使用するユーザ側情報処理装置の識別情報、及び、出勤状態(出社しているか否か、VRオフィスか現実のオフィスか)等を記憶させることも好ましい。
As shown in FIG. 2, the office side storage device 100 includes a user storage unit 101 and an office storage unit 102.
The user storage unit 101 stores user identification information, user biometric information, user location information in the VR office, and information indicating that the VR office has been accessed (user access time information, etc.). Further, it is also preferable to store the identification information of the user-side information processing device used by the user, the attendance status (whether or not he / she is at work, whether it is a VR office or an actual office), and the like in the user storage unit 101.

ユーザの生体情報としては、例えばユーザの顔画像を使用して、この顔画像にもとづき顔認証を行うようにすることができる。また、ユーザの生体情報として、指紋、静脈情報、網膜などの情報を使用して、これらにもとづき認証を行うようにすることも可能である。また、ユーザの生体情報に変えて、ユーザの認証情報(パスワードなど)を用いることもできる。 As the biometric information of the user, for example, the face image of the user can be used, and the face authentication can be performed based on the face image. It is also possible to use information such as fingerprints, vein information, and retina as the biometric information of the user, and perform authentication based on these. Further, the user's authentication information (password, etc.) can be used instead of the user's biometric information.

オフィス記憶部102は、VRオフィスにおける一又は複数の部屋の三次元画像の配置情報(VRオフィスの三次元空間における位置情報)を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像の配置情報を設備品の識別情報ごとに記憶する。なお、この「部屋」は、例えば廊下や入口などのオフィス内の不動産を総称して用いている。また、「設備品」は、オフィス内の動産を総称して用いている。 The office storage unit 102 stores the arrangement information of the three-dimensional images of one or more rooms in the VR office (position information in the three-dimensional space of the VR office) for each room identification information, and stores a plurality of equipment in the VR office. The arrangement information of the three-dimensional image is stored for each identification information of the equipment. In addition, this "room" is used generically for real estate in an office such as a corridor or an entrance. In addition, "equipment" is a general term for movables in the office.

これらの三次元画像は、事前に3DのCADを用いて作成して、後述するユーザ側情報処理装置20における画像記憶部21に記憶させておくことができる。また、3DのCADをWEB処理装置300で動作させ、ユーザがユーザ側情報処理装置20によりブラウザを用いて上記の三次元画像を編集できるようにしても良い。なお、後述する第二実施形態においては、このような3DのCADをシンクライアント処理装置500で動作させて、ユーザがユーザ側情報処理装置20によりブラウザを用いて上記の三次元画像を編集できるようにすることもできる。 These three-dimensional images can be created in advance using 3D CAD and stored in the image storage unit 21 of the user-side information processing apparatus 20 described later. Further, the 3D CAD may be operated by the WEB processing device 300 so that the user can edit the above three-dimensional image by using the user-side information processing device 20 using a browser. In the second embodiment described later, such a 3D CAD is operated by the thin client processing device 500 so that the user can edit the above three-dimensional image by using the user-side information processing device 20 using a browser. It can also be.

VR処理装置200は、図2に示すように、生体認証部201、アクセス記録部202、及びVR情報作成部203を備えている。
生体認証部201は、ユーザ側情報処理装置20から送信されてきた生体情報がユーザ記憶部101に記憶されているユーザの生体情報に一致するか否かにもとづいて、生体認証の成否を判定する。
また、生体認証部201に変えて、ユーザの識別情報(ID)とユーザの認証情報(パスワード)にもとづいて、認証を行う認証処理部を備える構成としてても良い。この場合、ユーザ側情報処理装置20からは生体情報に変えて、ユーザIDとパスワードが送信され、認証処理部は、ユーザ記憶部101に記憶されているユーザの認証情報にこれらが一致するか否かにもとづいて、認証の成否を判定する。
As shown in FIG. 2, the VR processing device 200 includes a biometric authentication unit 201, an access recording unit 202, and a VR information creation unit 203.
The biometric authentication unit 201 determines the success or failure of biometric authentication based on whether or not the biometric information transmitted from the user-side information processing device 20 matches the user's biometric information stored in the user storage unit 101. ..
Further, instead of the biometric authentication unit 201, an authentication processing unit that performs authentication based on the user's identification information (ID) and the user's authentication information (password) may be provided. In this case, the user ID and password are transmitted from the user-side information processing apparatus 20 instead of biometric information, and the authentication processing unit determines whether or not these match the user authentication information stored in the user storage unit 101. The success or failure of the authentication is judged based on the information processing.

アクセス記録部202は、ユーザがVRオフィスへアクセスしたことを示す情報などをユーザ記憶部101に記録する。
例えば、アクセス記録部202は、VRオフィスにおけるユーザの最新の位置情報、及び、VRオフィスへのユーザのアクセス時刻情報等をユーザ記憶部101に記録することができる。
The access recording unit 202 records information or the like indicating that the user has accessed the VR office in the user storage unit 101.
For example, the access recording unit 202 can record the latest location information of the user in the VR office, the access time information of the user to the VR office, and the like in the user storage unit 101.

VR情報作成部203は、ユーザ記憶部101に記憶されているVRオフィスにおけるユーザの位置情報と、オフィス記憶部102に記憶されているVRオフィスにおける一又は複数の部屋の三次元画像の配置情報、及び、VRオフィスにおける複数の設備品の三次元画像の配置情報とを入力し、これらの位置情報と配置情報を含むVR情報を作成して、WEB処理部300を介してユーザ側情報処理装置20へ送信する。 The VR information creation unit 203 includes information on the user's position in the VR office stored in the user storage unit 101 and information on the arrangement of three-dimensional images of one or more rooms in the VR office stored in the office storage unit 102. And, the arrangement information of the three-dimensional images of a plurality of equipments in the VR office is input, the VR information including these position information and the arrangement information is created, and the user side information processing apparatus 20 via the WEB processing unit 300. Send to.

ここで、VR情報作成部203により作成されるVR情報には、VRオフィス内に存在している全てユーザの位置情報が含まれており、VR情報作成部203によるVR情報の作成、及びVR情報作成部203からのVR情報のユーザ側情報処理装置20への送信は、リアルタイムに行われる。
そして、各ユーザ側情報処理装置20は、VRオフィスにおける当該ユーザ側情報処理装置20を使用しているユーザの位置を一人称視点の現在位置として、VRオフィスにおけるその他のユーザの画像をVR合成処理部22によって、VRオフィス内に合成する。これにより、各ユーザは、VRオフィスにおいて、自分以外のユーザを視認することができるようになっている。
Here, the VR information created by the VR information creation unit 203 includes the position information of all the users existing in the VR office, and the VR information creation unit 203 creates the VR information and the VR information. The transmission of the VR information from the creation unit 203 to the user-side information processing device 20 is performed in real time.
Then, each user-side information processing device 20 sets the position of the user using the user-side information processing device 20 in the VR office as the current position of the first-person viewpoint, and sets the image of another user in the VR office as the VR synthesis processing unit. 22 is synthesized in the VR office. As a result, each user can visually recognize a user other than himself / herself in the VR office.

また、VRオフィスにおいて、ユーザ自身の画像は、当該ユーザが使用しているユーザ側情報処理装置20に接続された表示装置32には表示されず、他のユーザが使用している他のユーザ側情報処理装置20によって、他のユーザ側情報処理装置20に接続された表示装置32に表示されるようになっている。 Further, in the VR office, the user's own image is not displayed on the display device 32 connected to the user-side information processing device 20 used by the user, and is not displayed on the display device 32 used by the other user. The information processing device 20 displays the information on the display device 32 connected to the other user-side information processing device 20.

ユーザ側情報処理装置20は、図3に示すように、画像記憶部21、VR合成処理部22、生体情報取得部23、及びユーザ位置情報送信部24を備えている。
画像記憶部21は、ユーザの三次元画像をユーザの識別情報ごとに記憶すると共に、VRオフィスにおける一又は複数の部屋の三次元画像を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像を設備品の識別情報ごとに記憶する。なお、ここでいう「三次元画像」には、三次元変換処理によって三次元画像を作成する元になる二次元画像(将来の三次元画像)も含まれる。
As shown in FIG. 3, the user-side information processing apparatus 20 includes an image storage unit 21, a VR synthesis processing unit 22, a biological information acquisition unit 23, and a user position information transmission unit 24.
The image storage unit 21 stores the user's three-dimensional image for each user's identification information, and stores the three-dimensional image of one or more rooms in the VR office for each room identification information, and stores a plurality of facilities in the VR office. A three-dimensional image of the product is stored for each identification information of the equipment. The "three-dimensional image" referred to here also includes a two-dimensional image (future three-dimensional image) that is a source for creating a three-dimensional image by a three-dimensional conversion process.

VR合成処理部22は、VR処理装置200におけるVR情報作成部203からネットワーク及びデータ入出力部25を介して送信されてきたVR情報と、画像記憶部21に記憶されているユーザの三次元画像、部屋の三次元画像、及び、設備品の三次元画像にもとづきVR画像を合成して、ユーザ側情報処理装置20に接続された表示装置32により表示させる。
このようなVR画像の合成は、例えば、Unity(ユニティ・テクノロジーズ・ジャパン合同会社)などを用いて行うことができる。
The VR synthesis processing unit 22 contains VR information transmitted from the VR information creation unit 203 in the VR processing device 200 via the network and the data input / output unit 25, and a user's three-dimensional image stored in the image storage unit 21. , The VR image is synthesized based on the three-dimensional image of the room and the three-dimensional image of the equipment, and displayed by the display device 32 connected to the user-side information processing device 20.
Such VR image composition can be performed using, for example, Unity (Unity Technologies Japan GK) or the like.

ここで、本実施形態のオフィス用VRシステムでは、ユーザが、実際にオフィスにいるような感覚を得ることができるようにするために、ある場所からある場所に移動する場合に、VRオフィスにおいて移動のアクションをしなければ、移動できないようにしている。すなわち、いきなり別な場所にジャンプ(ワープ)するような動作はさせないことを基本としている。 Here, in the office VR system of the present embodiment, in order to allow the user to feel as if he / she is actually in the office, when the user moves from one place to another, he / she moves in the VR office. If you do not take the action of, you will not be able to move. In other words, it is basically not allowed to suddenly jump (warp) to another place.

移動のアクションの指示は、ユーザ側情報処理装置20に接続された入力装置31により行うことができる。入力装置31としては、後述するように、キーボードやマウスの他、ゲームコントローラを用いることができる。また、加速度センサが搭載されたデバイスなどを用いて、振り回すことにより動きを表現することもできる。 The instruction of the movement action can be given by the input device 31 connected to the user-side information processing device 20. As the input device 31, a game controller can be used in addition to the keyboard and mouse, as will be described later. It is also possible to express movement by swinging it using a device equipped with an acceleration sensor or the like.

ユーザ側情報処理装置20に接続された表示装置32としてゴーグルを使用し、ユーザがゴーグルを装着する場合には、ゴーグルに加速度センサやGPSなどの位置情報を取得するセンサが搭載されていれば、ユーザが現在どの方向を向いているのかを判定することができる。このため、VR合成処理部22によって、画像記憶部21からその方向のユーザ、部屋、及び設備品の三次元画像を取得して、表示装置32に表示させることが可能である。 When the goggles are used as the display device 32 connected to the information processing device 20 on the user side and the user wears the goggles, if the goggles are equipped with a sensor for acquiring position information such as an acceleration sensor or GPS, It is possible to determine which direction the user is currently facing. Therefore, the VR synthesis processing unit 22 can acquire a three-dimensional image of the user, the room, and the equipment in that direction from the image storage unit 21 and display it on the display device 32.

その他、ユーザ側情報処理装置20に移動方向検出部(図示していない)を備えて、ユーザ側情報処理装置20に接続された画像入力装置35によりユーザの動画を撮影して、この動画における眼球や首の動きにもとづいて、移動方向検出部によりユーザの移動方向を検出して、その方向の画像をVR合成処理部22により表示装置32に表示させることも可能である。 In addition, the user-side information processing device 20 is provided with a movement direction detection unit (not shown), and an image input device 35 connected to the user-side information processing device 20 captures a user's moving image, and the eyeball in this moving image is taken. It is also possible to detect the movement direction of the user by the movement direction detection unit based on the movement of the head or the neck, and display the image in that direction on the display device 32 by the VR synthesis processing unit 22.

このように、本実施形態のオフィス用VRシステムにおいて、ユーザを瞬時に移動させることなく、あえて移動する操作をさせるようにすることにより、VRオフィス内において、他の人と対面したり、挨拶したりすることを生じさせ、これによって、一種のコミュニケーションが促進されるようにしている。 In this way, in the office VR system of the present embodiment, by allowing the user to move the user without moving it instantaneously, he / she can meet or greet other people in the VR office. It causes things to happen, which promotes a kind of communication.

なお、本実施形態のオフィス用VRシステムにおいて、ユーザを瞬時に移動させるボタンなどを備えることは技術的に可能であり、当該機能を除くものではない。
例えば、ユーザ側情報処理装置20において、会議室瞬間移動ボタン表示部(図示していない)を設けて、表示装置32により当該ボタンを表示させ、当該ボタンが押下された場合に、VR合成処理部22により画像記憶部21から会議室の画像を取得して表示装置32により表示させると共に、ユーザの位置情報を会議室内に設定してユーザ位置情報送信部24に出力し、ユーザ位置情報送信部24によりユーザの位置情報をVR情報作成部203へ送信させることができる。そして、VR情報作成部203により、ユーザの位置情報をユーザ記憶部101に記録させて、当該ユーザの位置情報を含むVR情報をユーザ側情報処理装置20へ送信させることができる。
これによって、緊急の場合などに、ユーザに直ちに会議室に集合させること等を可能とすることができる。
In the office VR system of the present embodiment, it is technically possible to provide a button or the like for moving the user instantly, and the function is not excluded.
For example, in the information processing device 20 on the user side, a conference room instantaneous movement button display unit (not shown) is provided, the button is displayed by the display device 32, and when the button is pressed, the VR synthesis processing unit is used. 22 acquires an image of the conference room from the image storage unit 21 and displays it on the display device 32, sets the user's position information in the conference room, outputs the image to the user position information transmission unit 24, and outputs the user position information transmission unit 24. This allows the user's position information to be transmitted to the VR information creation unit 203. Then, the VR information creation unit 203 can record the user's position information in the user storage unit 101 and transmit the VR information including the user's position information to the user-side information processing apparatus 20.
This makes it possible for users to immediately gather in the conference room in the event of an emergency.

VR合成処理部22は、当該ユーザ側情報処理装置20のユーザのVRオフィスにおけるリアルタイムの位置情報をユーザ位置記憶部(図示していない)に記憶させることができる。また、VR合成処理部22は、そのユーザの位置を現在位置として、一人称視点のVRオフィスの画像を合成する。
すなわち、ユーザが振り返るような移動のアクションを入力装置31により入力すると、表示装置32には振り返った場合に表示される後ろの風景の画像が表示される。
このとき、表示装置32として360度投影型プロジェクタを用いる場合には、VRオフィスの画像を回転させる必要はないが、表示装置32としてモニタやVRゴーグルを用いる場合には、移動量に応じてVRオフィスの画像を回転させる。
なお、表示装置32として360度投影型プロジェクタを用いる場合でも、キーボードなどにより視界を移動させるアクションを行った場合には、その移動量に応じてVRオフィスの画像を回転させて、表示させるオフィスの風景を変えるようにすることも可能である。
The VR synthesis processing unit 22 can store real-time position information in the VR office of the user of the user-side information processing apparatus 20 in a user position storage unit (not shown). Further, the VR composition processing unit 22 synthesizes an image of the VR office from the first-person viewpoint with the position of the user as the current position.
That is, when the user inputs a movement action such as looking back by the input device 31, the display device 32 displays an image of the landscape behind which is displayed when looking back.
At this time, when a 360-degree projection projector is used as the display device 32, it is not necessary to rotate the image of the VR office, but when a monitor or VR goggles are used as the display device 32, VR is used according to the amount of movement. Rotate the image of the office.
Even when a 360-degree projection projector is used as the display device 32, if an action is performed to move the field of view with a keyboard or the like, the image of the VR office is rotated and displayed according to the amount of movement. It is also possible to change the landscape.

ここで、VRオフィスにおける三次元画像をオフィス用VR装置群10側で作成して、ネットワークへ画像情報として転送すると、ネットワークの情報量が多くなるため、ネットワーク負荷が高くなり、転送スピードの遅いネットワークの場合は表示が緩慢となってVRオフィスにおいて仕事を行い難くなる。
そこで、本実施形態のオフィス用VRシステムでは、ユーザ側情報処理装置20側において、最終的な三次元画像を作成するためのモジュール(VR合成処理部22)を配置して、ネットワークにはユーザの位置情報、及び部屋や設備品の配置情報等の数値情報を転送する形式を採ることにより、パフォーマンスの低下を避けることを可能としている。
Here, if a three-dimensional image in a VR office is created on the office VR device group 10 side and transferred to the network as image information, the amount of information in the network increases, so that the network load increases and the transfer speed is slow. In the case of, the display becomes slow and it becomes difficult to work in the VR office.
Therefore, in the office VR system of the present embodiment, a module (VR synthesis processing unit 22) for creating a final three-dimensional image is arranged on the user side information processing apparatus 20 side, and the user's network is connected to the user. By adopting a format that transfers numerical information such as location information and layout information of rooms and equipment, it is possible to avoid deterioration of performance.

生体情報取得部23は、ユーザ側情報処理装置20に接続された画像入力装置35(CCDビデオカメラ,CMOSビデオカメラ等)によりユーザの生体情報を取得して、この生体情報をデータ入出力部25及びネットワークを介してVR処理装置200へ送信する。
具体的には、例えばユーザ側情報処理装置20にゲート表示部(図示していない)を設けて、このゲート表示部が、オフィス用VRプログラムをユーザ側情報処理装置20において起動した後にVRオフィスへの入口を表示装置32により表示させる。次に、生体情報取得部23が、仮想的にその入口の前に存在していることになるユーザの顔を画像入力装置35により撮影して、撮影されたユーザの顔画像をVR処理装置200へ送信することができる。
The biometric information acquisition unit 23 acquires the user's biometric information by an image input device 35 (CDCD video camera, CMOS video camera, etc.) connected to the user side information processing device 20, and uses this biometric information as the data input / output unit 25. And transmission to the VR processing device 200 via the network.
Specifically, for example, a gate display unit (not shown) is provided in the user-side information processing device 20, and the gate display unit starts the office VR program in the user-side information processing device 20 and then goes to the VR office. The entrance of is displayed by the display device 32. Next, the biometric information acquisition unit 23 photographs the user's face, which is supposed to be virtually present in front of the entrance, by the image input device 35, and the photographed user's face image is captured by the VR processing device 200. Can be sent to.

また、認証方法は顔認証に限られず、その他の生体認証を行うこともできる。例えば、画像入力装置35として、指紋や静脈情報を入力する装置や網膜などの情報を入力する装置などを用いて生体情報取得部23により取得させ、同様にVR処理装置200へ送信する構成とすることができる。 Further, the authentication method is not limited to face authentication, and other biometric authentication can also be performed. For example, the image input device 35 is configured to be acquired by the biological information acquisition unit 23 using a device for inputting fingerprint and vein information, a device for inputting information such as the retina, and the like, and similarly transmitted to the VR processing device 200. be able to.

このとき、ゲート表示部によるVRオフィスへの入口の表示は、画像記憶部21に記憶されている入口画像の三次元画像を入力して行うことができる。なお、このゲート表示部の機能は、VR合成処理部22又は生体情報取得部23に含めても良い。
そして、VR処理装置200における生体認証部201が、入力したユーザの顔画像等を用いて、上述したように生体認証を行い、その判定結果をユーザ側情報処理装置20へ送信する。
At this time, the display of the entrance to the VR office by the gate display unit can be performed by inputting a three-dimensional image of the entrance image stored in the image storage unit 21. The function of this gate display unit may be included in the VR synthesis processing unit 22 or the biometric information acquisition unit 23.
Then, the biometric authentication unit 201 in the VR processing device 200 performs biometric authentication as described above using the input user's face image or the like, and transmits the determination result to the user-side information processing device 20.

このように、ユーザは、例えばユーザ側情報処理装置20に接続された表示装置32の前に座る、あるいは表示装置32を装着することにより、顔認証などの生体認証技術を用いて本人か否かを判定させることができる。
このため、本人であれば、オフィス用VRシステムは、ユーザがVRオフィスに出社して仕事をしていることを認識することができ、出社状態としてユーザ記憶部101に記録することができる。
In this way, whether or not the user is the person himself / herself by using biometric authentication technology such as face authentication by, for example, sitting in front of the display device 32 connected to the information processing device 20 on the user side or wearing the display device 32. Can be determined.
Therefore, the person himself / herself can recognize that the user has come to the VR office and is working, and can record the state of coming to the office in the user storage unit 101.

また、その逆に、一定時間以上に亘ってユーザ側情報処理装置20の前からいなくなった場合には、外出または退社状態として記録することもできる。
すなわち、生体情報取得部23は、画像入力装置35によりユーザの顔情報等を随時入力して、VR処理装置200における生体認証部201へ送信し、アクセス記録部202によって、ユーザの出勤状態を記録することができ、これによって、ユーザの勤怠管理を行うことが可能となっている。
On the contrary, when the user disappears from the front of the information processing apparatus 20 for a certain period of time or longer, it can be recorded as going out or leaving the office.
That is, the biometric information acquisition unit 23 inputs the user's face information or the like at any time by the image input device 35, transmits it to the biometric authentication unit 201 in the VR processing device 200, and records the user's attendance status by the access recording unit 202. This makes it possible to manage the attendance of the user.

また、生体情報取得部23に変えて、認証情報取得部を備えて、ユーザ側情報処理装置20に接続された入力装置31によりユーザのIDとパスワードを入力し、これらの認証情報をデータ入出力部25及びネットワークを介してVR処理装置200へ送信する構成としても良い。 Further, instead of the biometric information acquisition unit 23, an authentication information acquisition unit is provided, and a user ID and password are input by an input device 31 connected to the user side information processing device 20, and these authentication information is input / output. It may be configured to transmit to the VR processing device 200 via the unit 25 and the network.

ユーザ位置情報送信部24は、ユーザ側情報処理装置20を使用しているユーザのVRオフィスにおける位置情報をVR合成処理部22から随時取得して、このユーザ位置情報をVR処理装置200へ送信する。この位置情報には、VRオフィス内におけるユーザの三次元位置情報、及びユーザが向いている方向が含まれる。 The user position information transmission unit 24 acquires the position information in the VR office of the user using the user side information processing device 20 from the VR synthesis processing unit 22 at any time, and transmits the user position information to the VR processing device 200. .. This location information includes the user's three-dimensional location information in the VR office and the direction in which the user is facing.

データ入出力部25は、ユーザ側情報処理装置20に接続された各種装置(内蔵して接続されているものを含む)、及びネットワークとのデータの入出力を行う。例えば、入力装置31や音声入力装置34から入力した情報は、VR合成処理部22へ出力することができる。また、画像入力装置35から入力した情報は、生体情報取得部23へ出力することができる。また、VR合成処理部22から入力した情報は、表示装置32や音声出力装置33から出力でき、生体情報取得部23やユーザ位置情報送信部24から入力した情報は、ネットワークを介してVR処理装置200へ送信することができる。 The data input / output unit 25 inputs / outputs data to / from various devices (including those built-in and connected) connected to the user-side information processing device 20 and the network. For example, the information input from the input device 31 or the voice input device 34 can be output to the VR synthesis processing unit 22. Further, the information input from the image input device 35 can be output to the biological information acquisition unit 23. Further, the information input from the VR synthesis processing unit 22 can be output from the display device 32 and the voice output device 33, and the information input from the biometric information acquisition unit 23 and the user position information transmission unit 24 can be output from the VR processing unit via the network. It can be sent to 200.

入力装置31は、キーボード、マウス、ゲームコントローラ、加速度センサ搭載デバイス等の入力装置である。すなわち、本実施形態のオフィス用VRシステムでは、ユーザ側情報処理装置20の操作に必要なキーボード、マウスなどについては、VRオフィスにおいて映像化するのではなく、実際にユーザの手元におかれたものを操作するようにすることによって、操作性が低くならないようにしている。 The input device 31 is an input device such as a keyboard, a mouse, a game controller, and a device equipped with an acceleration sensor. That is, in the office VR system of the present embodiment, the keyboard, mouse, etc. required for operating the user-side information processing device 20 are not visualized in the VR office, but are actually placed in the user's hand. The operability is not lowered by operating the.

表示装置32は、モニタ、360度投影型プロジェクタ、VRゴーグル等のVRオフィスの画像(映像)をユーザに視認させるための表示装置である。
表示装置32としてモニタを用いる場合は、例えば正面及びその両側に合計3台のモニタを並べて、これらの前にユーザが座って仕事をするようにすることができる。これら3台のモニタには、従来のシンクライアントのようなPCの画面だけでなく、VR合成処理部22によりVRオフィスの映像が映し出される。VRオフィスにおける他のユーザもオフィス用VRシステムを使用している場合、右隣にいるユーザは右側に表示させ、左にいるユーザは左側に表示させる。
The display device 32 is a display device for allowing the user to visually recognize an image (video) of a VR office such as a monitor, a 360-degree projection type projector, and VR goggles.
When a monitor is used as the display device 32, for example, a total of three monitors can be arranged in front of the display device and on both sides thereof so that the user can sit in front of them and work. On these three monitors, not only the screen of a PC like a conventional thin client but also the image of the VR office is projected by the VR synthesis processing unit 22. When other users in the VR office are also using the office VR system, the user on the right side is displayed on the right side, and the user on the left side is displayed on the left side.

表示装置32として360度投影型プロジェクタを用いる場合は、360度どの方向を見てもオフィスの映像が表示されるようにすることができ、本当のオフィスにいるような感覚により近づけることが可能である。
表示装置32としてVRゴーグルを用いる場合は、モニタやプロジェクタ、スクリーンなどを使用する必要がないため、設置することが容易となる。
このように、本実施形態のオフィス用VRシステムの表示装置32としては、いろいろな形態のものを用いることができ、設置場所などの都合によって選択することができる。
When a 360-degree projection projector is used as the display device 32, the image of the office can be displayed in any direction of 360 degrees, and it is possible to get closer to the feeling of being in a real office. be.
When VR goggles are used as the display device 32, it is not necessary to use a monitor, a projector, a screen, or the like, so that the VR goggles can be easily installed.
As described above, as the display device 32 of the office VR system of the present embodiment, various forms can be used and can be selected depending on the convenience of the installation location and the like.

音声出力装置33は、スピーカやヘッドフォンなどの音声出力装置であり、音声入力装置34は、マイクなどの入力装置であり、画像入力装置35は、CCDビデオカメラなどの入力装置である。 The audio output device 33 is an audio output device such as a speaker or headphones, the audio input device 34 is an input device such as a microphone, and the image input device 35 is an input device such as a CCD video camera.

WEB処理部300は、WEBサーバなどの情報処理装置である。このWEB処理部300は、httpプロトコル等を用いてインターネットなどのネットワークを介してユーザ側情報処理装置20との通信を可能にするための装置である。httpプロトコルは汎用性の観点から好ましいが、速度や秘匿性を重視する場合には、httpプロトコルの代わりに別の通信プロトコルを使って通信をする装置を用いることも可能である。 The WEB processing unit 300 is an information processing device such as a WEB server. The WEB processing unit 300 is a device for enabling communication with the user-side information processing device 20 via a network such as the Internet using an http protocol or the like. The http protocol is preferable from the viewpoint of versatility, but when speed and confidentiality are important, it is possible to use a device that communicates using another communication protocol instead of the http protocol.

IP電話装置400は、電話プロトコルサーバなどの情報処理装置であり、公衆回線網と接続し、SIPプロトコルで呼制御を行ない、実際の音声はVoIPプロトコルにより通信する。また、VRオフィス内部の社内通話もIP電話装置400によって行うことができる。VRオフィスを使用している会社同士であれば、公衆回線を経由しないで電話を行うことも可能である。 The IP telephone device 400 is an information processing device such as a telephone protocol server, is connected to a public network, performs call control by the SIP protocol, and communicates actual voice by the VoIP protocol. In-house calls inside the VR office can also be made by the IP telephone device 400. Companies using VR offices can make calls without going through the public line.

次に、本実施形態のオフィス用VRシステムにおけるVR処理装置200とユーザ側情報処理装置20の処理手順について、図4を参照して説明する。
まず、ユーザ側情報処理装置20により、オフィス用VRプログラムが起動された後、VRオフィスへの入口が表示装置32に表示される(ステップ10)。
次に、ユーザ側情報処理装置20の生体情報取得部23が、画像入力装置35などによりユーザの生体情報を取得し、この生体情報をVR処理装置200へ送信する(ステップ11)。
Next, the processing procedure of the VR processing device 200 and the user-side information processing device 20 in the office VR system of the present embodiment will be described with reference to FIG.
First, after the office VR program is started by the user-side information processing device 20, the entrance to the VR office is displayed on the display device 32 (step 10).
Next, the biometric information acquisition unit 23 of the user-side information processing apparatus 20 acquires the user's biometric information by the image input device 35 or the like, and transmits the biometric information to the VR processing apparatus 200 (step 11).

そして、VR処理装置200における生体認証部201が、入力したユーザの生体情報を用いて生体認証を行い、その判定結果をユーザ側情報処理装置20へ送信する(ステップ12)。 Then, the biometric authentication unit 201 in the VR processing device 200 performs biometric authentication using the input biometric information of the user, and transmits the determination result to the user side information processing device 20 (step 12).

また、VR処理装置200における生体認証部201は、生体認証が成功した場合に、アクセス記録部202により、ユーザ側情報処理装置20のユーザがVRオフィスへアクセスしたことを示す情報をユーザ記憶部101に記録させる(ステップ13)。
すなわち、アクセス記録部202は、ユーザの識別情報ごとに、VRオフィスへのユーザのアクセス時刻情報などをユーザ記憶部101に記録させることができる。
Further, the biometric authentication unit 201 in the VR processing device 200 provides information indicating that the user of the user-side information processing device 20 has accessed the VR office by the access recording unit 202 when the biometric authentication is successful. (Step 13).
That is, the access recording unit 202 can record the user's access time information to the VR office and the like in the user storage unit 101 for each user's identification information.

生体認証が成功した場合、ユーザは入口を通過することが可能となる。このとき、ユーザ側情報処理装置20におけるVR合成処理部22は、画像記憶部21から入口を通過する画像を入力して、これを表示装置32により表示させる(ステップ14)。
また、ユーザ側情報処理装置20におけるユーザ位置情報送信部24は、当該ユーザ側情報処理装置を使用しているVRオフィスにおけるユーザの位置が変化するに伴って、その位置情報をVR合成処理部22から取得し、これをVR処理装置200へ送信する(ステップ15)。
VR処理装置200におけるVR情報作成部203は、入力されたユーザの位置情報をアクセス記録部202によりユーザの識別情報ごとにユーザ記憶部101に記録させる(ステップ16)。
さらに、VR情報作成部203は、VRオフィスに存在している全てのユーザの位置情報をユーザ記憶部101から取得して、これを含むVR情報を作成し、VR情報を各ユーザ側情報処理装置20へ送信する(ステップ17)。
そして、ユーザ側情報処理装置20におけるVR合成処理部22により、VR情報と、画像記憶部21に記憶されているユーザの三次元画像、部屋の三次元画像等を用いて、VR画像が合成されて、表示装置32により表示される(ステップ18)。
If the biometric is successful, the user will be able to pass through the entrance. At this time, the VR synthesis processing unit 22 in the user-side information processing device 20 inputs an image passing through the entrance from the image storage unit 21 and displays it on the display device 32 (step 14).
Further, the user position information transmission unit 24 in the user side information processing device 20 converts the position information into the VR synthesis processing unit 22 as the position of the user in the VR office using the user side information processing device changes. And transmit it to the VR processing apparatus 200 (step 15).
The VR information creation unit 203 in the VR processing device 200 causes the access recording unit 202 to record the input user's position information in the user storage unit 101 for each user's identification information (step 16).
Further, the VR information creation unit 203 acquires the position information of all the users existing in the VR office from the user storage unit 101, creates VR information including this, and converts the VR information into the information processing device on each user side. It is transmitted to 20 (step 17).
Then, the VR synthesis processing unit 22 in the user-side information processing apparatus 20 synthesizes the VR image using the VR information, the user's three-dimensional image stored in the image storage unit 21, the room three-dimensional image, and the like. It is displayed by the display device 32 (step 18).

以上のように、本実施形態のオフィス用VRシステムによれば、ユーザが在宅勤務を行う場合、VRオフィスを使用することによって、ユーザに対して実際のオフィスに出勤をしているように感じさせることができる。また、VRオフィスにおいて、他のユーザも表示させることができ、コミュニケーションが希薄になることを防止することが可能である。また、ユーザの生体情報を随時入力することにより、勤怠管理を適切に行うことも可能となっている。 As described above, according to the VR system for offices of the present embodiment, when the user works from home, by using the VR office, the user feels as if he / she is going to work in the actual office. be able to. Further, in the VR office, other users can also be displayed, and it is possible to prevent communication from being diluted. In addition, attendance management can be appropriately performed by inputting the biometric information of the user at any time.

[第二実施形態]
次に、本発明の第二実施形態について、図5~図7を参照して説明する。図5は、本実施形態のオフィス用VRシステムの構成を示すブロック図であり、図6は、同システムにおけるシンクライアント処理装置の構成を示すブロック図である。図7は、同システムにおけるシンクライアント処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。
[Second Embodiment]
Next, the second embodiment of the present invention will be described with reference to FIGS. 5 to 7. FIG. 5 is a block diagram showing the configuration of the office VR system of the present embodiment, and FIG. 6 is a block diagram showing the configuration of the thin client processing device in the system. FIG. 7 is a flowchart showing a processing procedure of the thin client processing device and the user-side information processing device in the system.

本実施形態のオフィス用VRシステムは、第一実施形態の構成に加えて、VRオフィスにおいて表示されるコンピュータ画面に、シンクライアント化されたコンピュータ画面を表示させる構成を有している。その他の点については、第一実施形態と同様の構成とすることができる。
すなわち、本実施形態のオフィス用VRシステムは、図5に示すように、オフィス側記憶装置100、VR処理装置200、及びユーザ側情報処理装置20のシンクライアント化を行うためのシンクライアント処理装置500等を有するオフィス用VR装置群10と、これにインターネットなどのネットワーク(通信回線)を介して接続された複数のユーザ側情報処理装置20(20-1,20-2)を備えている。
In addition to the configuration of the first embodiment, the office VR system of the present embodiment has a configuration in which a thin client computer screen is displayed on the computer screen displayed in the VR office. Other points can be the same as that of the first embodiment.
That is, as shown in FIG. 5, the office VR system of the present embodiment is a thin client processing device 500 for converting the office side storage device 100, the VR processing device 200, and the user side information processing device 20 into thin clients. It is provided with a VR device group 10 for offices, and a plurality of user-side information processing devices 20 (20-1, 20-2) connected to the VR device group 10 for offices via a network (communication line) such as the Internet.

シンクライアント処理装置500は、図6に示すように、ユーザ側情報処理装置用仮想マシン(1)501、ユーザ側情報処理装置用仮想マシン(2)502、画面調整処理部(1)503、及び画面調整処理部(2)504を備えている。なお、図5においては、ユーザ側情報処理装置は2台示されているが、3台以上のユーザ側情報処理装置20を備えて、図6において、それぞれごとのユーザ側情報処理装置用仮想マシンと画面調整処理部をシンクライアント処理装置500に備えるようにすることもできる。 As shown in FIG. 6, the thin client processing device 500 includes a user-side information processing device virtual machine (1) 501, a user-side information processing device virtual machine (2) 502, a screen adjustment processing unit (1) 503, and a screen adjustment processing unit (1) 503. The screen adjustment processing unit (2) 504 is provided. Although two user-side information processing devices are shown in FIG. 5, three or more user-side information processing devices 20 are provided, and in FIG. 6, each user-side information processing device virtual machine is provided. The screen adjustment processing unit may be provided in the thin client processing apparatus 500.

ユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502は、それぞれ対応するユーザ側情報処理装置20-1,ユーザ側情報処理装置20-2の機能を実行する仮想のコンピュータである。 The user-side information processing device virtual machine (1) 501 and the user-side information processing device virtual machine (2) 502 have the corresponding functions of the user-side information processing device 20-1 and the user-side information processing device 20-2, respectively. Is a virtual computer that runs.

ここで、オフィス用VRシステムにおいて、ユーザ側情報処理装置20は、VR処理装置200から送信されてきたユーザの位置情報、及び部屋や設備品の三次元画像の配置情報と、画像記憶部21に記憶されている三次元画像とにもとづきVR画像を合成する機能を担い、業務に使用されるコンピュータの機能については、シンクライアント処理装置500に備えられている。 Here, in the office VR system, the user-side information processing device 20 stores the user's position information transmitted from the VR processing device 200, the arrangement information of the three-dimensional images of the room and the equipment, and the image storage unit 21. The thin client processing device 500 is provided with a function of synthesizing a VR image based on a stored three-dimensional image and a function of a computer used for business.

すなわち、各ユーザ側情報処理装置20に対応する、業務に使用されるコンピュータの機能を、ユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502が、実行する構成となっている。このように、業務に使用されるコンピュータの機能をシンクライアント処理装置500において仮想マシンとして動作させているため、シンクライアント処理装置500において、複数のコンピュータの機能を同時に動作させることが可能である。 That is, the user-side information processing device virtual machine (1) 501 and the user-side information processing device virtual machine (2) 502 provide the functions of the computer used for business corresponding to each user-side information processing device 20. , It is configured to execute. In this way, since the functions of the computers used for business are operated as virtual machines in the thin client processing device 500, it is possible to simultaneously operate the functions of a plurality of computers in the thin client processing device 500.

ユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502は、それぞれのコンピュータ画面(各ユーザ側情報処理装置のユーザが使用しているデスクトップ画像)を作成する。
画面調整処理部(1)503と、画面調整処理部(2)504は、ユーザ記憶部101に記憶されているユーザの位置情報、及びオフィス記憶部102に記憶されている設備品などの配置情報にもとづいて、ユーザ側情報処理装置用仮想マシンにより作成されたコンピュータ画面の解像度をユーザの識別情報ごとに決定して、その解像度に加工したコンピュータ画面をユーザの識別情報ごとに対応するユーザ側情報処理装置20へ送信する。
The user-side information processing device virtual machine (1) 501 and the user-side information processing device virtual machine (2) 502 display their respective computer screens (desktop images used by the users of each user-side information processing device). create.
The screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 have the user's position information stored in the user storage unit 101 and the arrangement information such as equipment stored in the office storage unit 102. Based on this, the resolution of the computer screen created by the virtual machine for the user-side information processing device is determined for each user's identification information, and the computer screen processed to that resolution is the user-side information corresponding to each user's identification information. It is transmitted to the processing device 20.

すなわち、ユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502により作成されたコンピュータ画面が、それぞれ画面調整処理部(1)503と、画面調整処理部(2)504により加工された後に、WEB処理部300における仮想マシン画像送信モジュール(図示していない)によって、ユーザ側情報処理装置20へ送信され、ユーザ側情報処理装置20における仮想マシン画像受信モジュール(図示していない)を介して、VR合成処理部22へ入力される。そして、VR合成処理部22により、VRオフィスにおけるコンピュータの画面に上記加工後のコンピュータ画面が合成されて、表示装置32によりVRオフィスにおいてコンピュータ画面が表示される。
このとき、VRオフィスにおけるコンピュータ画面の合成は、例えば、Unity(ユニティ・テクノロジーズ・ジャパン合同会社)などを用いて行うことができる。
That is, the computer screens created by the virtual machine (1) 501 for the user-side information processing device and the virtual machine (2) 502 for the user-side information processing device are the screen adjustment processing unit (1) 503 and the screen adjustment processing, respectively. After being processed by the unit (2) 504, it is transmitted to the user-side information processing apparatus 20 by the virtual machine image transmission module (not shown) in the WEB processing unit 300, and the virtual machine image reception in the user-side information processing apparatus 20. It is input to the VR synthesis processing unit 22 via a module (not shown). Then, the VR synthesis processing unit 22 synthesizes the processed computer screen with the computer screen in the VR office, and the display device 32 displays the computer screen in the VR office.
At this time, the composition of the computer screen in the VR office can be performed by using, for example, Unity (Unity Technologies Japan GK) or the like.

なお、上記のコンピュータ画面は、シンクライアント処理装置500のビデオメモリ上に作成され、GPUにより主記憶へ転送され、さらに主記憶からWEB処理部300を経由して、ユーザ側情報処理装置20へ送信される。このとき、ネットワーク通信負荷を下げるために画像情報を圧縮し、またセキュリティのために暗号化して送信することが好ましい。 The above computer screen is created on the video memory of the thin client processing device 500, transferred to the main memory by the GPU, and further transmitted from the main storage to the user-side information processing device 20 via the WEB processing unit 300. Will be done. At this time, it is preferable to compress the image information in order to reduce the network communication load, and to encrypt and transmit the image information for security.

このように、シンクライアント処理装置500におけるユーザ側情報処理装置用仮想マシンにおいて使用される機密ファイルなどの重要情報は、ユーザ側情報処理装置20には転送されず、ユーザ側情報処理装置用仮想マシンのコンピュータ画面のみがユーザ側情報処理装置20へ送信されるため、情報漏洩防止に寄与することが可能になっている。
すなわち、本実施形態のオフィス用VRシステムにおいて、シンクライアント化を行うことが可能となっている。
In this way, important information such as confidential files used in the user-side information processing device virtual machine in the thin client processing device 500 is not transferred to the user-side information processing device 20, and the user-side information processing device virtual machine. Since only the computer screen of the above is transmitted to the information processing apparatus 20 on the user side, it is possible to contribute to the prevention of information leakage.
That is, in the office VR system of the present embodiment, it is possible to make a thin client.

また、さらに詳細には、本実施形態のオフィス用VRシステムでは、ユーザ側情報処理装置20側に表示されるVRオフィスには、ユーザ側情報処理装置20を使用しているユーザのコンピュータ画面だけでなく、ユーザの近くの机に置かれた他人のコンピュータ画面も表示される場合がある。そのために、コンピュータ画面の表示を現実の見え方に近づけるために、上記の通り、コンピュータ画面の解像度の調整を可能としている。 Further, more specifically, in the office VR system of the present embodiment, the VR office displayed on the user side information processing device 20 side is only the computer screen of the user who is using the user side information processing device 20. Instead, the computer screen of another person placed on a desk near the user may also be displayed. Therefore, in order to bring the display of the computer screen closer to the actual appearance, the resolution of the computer screen can be adjusted as described above.

具体的には、画面調整処理部(1)503と、画面調整処理部(2)504は、それぞれユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502から、コンピュータ画面を入力すると共に、ユーザ記憶部101からリアルタイムで更新されるユーザの位置情報を入力し、オフィス記憶部102からコンピュータの三次元画像の配置情報を入力し(図6では画面調整処理部(2)504への入力のみを示している)、他のユーザのコンピュータからの距離に応じて、コンピュータ画面の解像度をユーザの識別情報ごとに決定する。
そして、画面調整処理部(1)503と、画面調整処理部(2)504は、決定した解像度に加工したコンピュータ画面をユーザの識別情報ごとに対応するユーザ側情報処理装置20へ送信する。
Specifically, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 are a virtual machine for the user-side information processing device (1) 501 and a virtual machine for the user-side information processing device (2), respectively. ) From 502, the computer screen is input, the user's position information updated in real time is input from the user storage unit 101, and the arrangement information of the three-dimensional image of the computer is input from the office storage unit 102 (screen in FIG. 6). Adjustment processing unit (2) Only the input to 504 is shown), the resolution of the computer screen is determined for each user's identification information according to the distance from the computer of another user.
Then, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 transmit the computer screen processed to the determined resolution to the corresponding user-side information processing device 20 for each user's identification information.

例えば、ユーザの正面に表示されるコンピュータ画面の解像度を高くし、離れた場所にあるコンピュータ画面の解像度は、その距離に応じて低くする。
このようにすれば、実際のオフィスにおいて、遠くにあるパソコンの画面はなんとなくぼやっと見え、手元にあるパソコンの画面をハッキリ見えることと同様な状態を表現することが可能となる。
また、このような表示の仕方にすることによって、遠くに置かれているパソコンの画面の情報量を少なくすることができ、ネットワークを経由させるコンピュータ画面の情報量を低減させることが可能となる。
For example, the resolution of the computer screen displayed in front of the user is increased, and the resolution of the computer screen at a remote location is decreased according to the distance.
In this way, in an actual office, the screen of a distant personal computer can be seen somewhat vaguely, and it is possible to express a state similar to the clear view of the screen of a personal computer at hand.
Further, by adopting such a display method, the amount of information on the screen of a personal computer placed far away can be reduced, and the amount of information on the computer screen via the network can be reduced.

さらに、画面調整処理部(1)503と、画面調整処理部(2)504は、コンピュータ画面の解像度を調整するだけでなく、そのコンピュータ画面を他人が覗き込んでよいか否かも制御することができる。
この場合、ユーザ記憶部101は、ユーザの識別情報ごとに、ユーザの権限情報を記憶する。
Further, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 can not only adjust the resolution of the computer screen but also control whether or not another person can look into the computer screen. can.
In this case, the user storage unit 101 stores the user's authority information for each user's identification information.

具体的には、画面調整処理部(1)503と、画面調整処理部(2)504は、ユーザ記憶部101から、ユーザ側情報処理装置20に対応するユーザの識別情にもとづき、ユーザの権限情報を入力し(図6では画面調整処理部(2)504への入力のみを示している)、各ユーザの識別情報ごとに、それぞれどのユーザのコンピュータ画面を表示する権限があるかを判定し、権限のあるユーザのコンピュータ画像のみを表示させ、権限がないものについてはコンピュータ画面を表示させない。 Specifically, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 are authorized by the user from the user storage unit 101 based on the user's identification information corresponding to the user-side information processing device 20. Information is input (in FIG. 6, only input to the screen adjustment processing unit (2) 504 is shown), and it is determined for each user's identification information which user has the authority to display the computer screen. , Display only the computer image of the authorized user, and do not display the computer screen for the unauthorized user.

すなわち、画面調整処理部(1)503と、画面調整処理部(2)504は、表示させるコンピュータ画面のみについて、解像度にもとづきコンピュータ画面を加工して、この加工したコンピュータ画面をユーザの識別情報ごとに対応するユーザ側情報処理装置20へ送信する。また、画面調整処理部(1)503と、画面調整処理部(2)504は、表示させないコンピュータ画面については、表示しないことを示す情報をユーザの識別情報ごとに対応するユーザ側情報処理装置20へ送信することができる。 That is, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 process the computer screen based on the resolution only for the computer screen to be displayed, and the processed computer screen is processed for each user's identification information. Is transmitted to the user-side information processing apparatus 20 corresponding to the above. Further, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 correspond to the information indicating that the computer screen to be not displayed is not displayed for each user's identification information 20. Can be sent to.

このように、本実施形態のオフィス用VRシステムによれば、VRオフィスにおいて、ユーザ側情報処理装置20ごとに、ユーザの権限情報にもとづいて、覗き込んでも良いコンピュータ画面のみを表示させ、参照権限のないコンピュータ画面を表示させないようにすることができる。これは、実際のオフィスのセキュリティを超えるVRオフィス特有の利点であると言える。 As described above, according to the VR system for offices of the present embodiment, in the VR office, for each user-side information processing device 20, only the computer screen that may be looked into is displayed based on the user's authority information, and the reference authority is displayed. It is possible to hide the computer screen without information. It can be said that this is an advantage peculiar to the VR office that exceeds the security of the actual office.

なお、ユーザ側情報処理装置20のVR合成処理部22は、通常、VRオフィスの一部において、各ユーザ側情報処理装置20に対応するコンピュータ画面を表示させるようにVR画像を合成するが、入力装置31から全画面表示指示情報の入力があった場合には、コンピュータ画面を表示装置32の画面全体に表示させるようにすることもできる。また、入力装置31から全画面表示解除指示情報の入力があった場合には、通常のVRオフィスの表示に戻すこともできる。
これにより、表示装置32により表示される画面に表示できる情報量を一時的に増やすことができる。
The VR synthesis processing unit 22 of the user-side information processing device 20 normally synthesizes a VR image so as to display a computer screen corresponding to each user-side information processing device 20 in a part of the VR office, but inputs the VR image. When the full screen display instruction information is input from the device 31, the computer screen may be displayed on the entire screen of the display device 32. Further, when the input device 31 inputs the full-screen display cancellation instruction information, the display can be returned to the normal VR office display.
As a result, the amount of information that can be displayed on the screen displayed by the display device 32 can be temporarily increased.

次に、本実施形態のオフィス用VRシステムにおけるシンクライアント処理装置500とユーザ側情報処理装置20の処理手順について、図7を参照して説明する。
まず、シンクライアント処理装置500におけるユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502が、それぞれ対応するユーザ側情報処理装置20に代わって、業務に使用されるコンピュータの機能を実行する(ステップ20)。
また、ユーザ側情報処理装置用仮想マシン(1)501と、ユーザ側情報処理装置用仮想マシン(2)502は、それぞれのコンピュータ画面を作成する(ステップ21)。
Next, the processing procedure of the thin client processing device 500 and the user-side information processing device 20 in the office VR system of the present embodiment will be described with reference to FIG. 7.
First, the virtual machine (1) 501 for the user-side information processing device and the virtual machine (2) 502 for the user-side information processing device in the thin client processing device 500 work on behalf of the corresponding user-side information processing device 20. Perform the functions of the computer used for (step 20).
Further, the user-side information processing device virtual machine (1) 501 and the user-side information processing device virtual machine (2) 502 create their respective computer screens (step 21).

次に、シンクライアント処理装置500における画面調整処理部(1)503と、画面調整処理部(2)504は、ユーザ記憶部101に記憶されているユーザの位置情報、及びオフィス記憶部102に記憶されている設備品などの配置情報にもとづいて、ユーザ側情報処理装置用仮想マシンにより作成されたコンピュータ画面の解像度をユーザの識別情報ごとに決定する(ステップ22)。 Next, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 in the thin client processing device 500 store the user's position information stored in the user storage unit 101 and the office storage unit 102. The resolution of the computer screen created by the virtual machine for the information processing device on the user side is determined for each identification information of the user based on the arrangement information of the equipment and the like (step 22).

また、画面調整処理部(1)503と、画面調整処理部(2)504は、ユーザ記憶部101から、ユーザ側情報処理装置20に対応するユーザの識別情にもとづき、ユーザの権限情報を入力し、各ユーザの識別情報ごとに、それぞれどのユーザのコンピュータ画面を表示する権限があるかを判定する(ステップ23)。なお、ステップ22とステップ23の順番を入れ替えても良い。 Further, the screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 input the user's authority information from the user storage unit 101 based on the user's identification information corresponding to the user-side information processing device 20. Then, for each user's identification information, it is determined which user has the authority to display the computer screen (step 23). The order of step 22 and step 23 may be changed.

画面調整処理部(1)503と、画面調整処理部(2)504は、表示させるコンピュータ画面のみについて、解像度にもとづきコンピュータ画面を加工して、この加工したコンピュータ画面をユーザの識別情報ごとに対応するユーザ側情報処理装置20へ送信する(ステップ24)。
そして、ユーザ側情報処理装置20におけるVR合成処理部22は、VRオフィスにおけるコンピュータの画面に加工後のコンピュータ画面を合成し、VRオフィスにおいてコンピュータ画面を表示する(ステップ25)。
The screen adjustment processing unit (1) 503 and the screen adjustment processing unit (2) 504 process the computer screen based on the resolution only for the computer screen to be displayed, and the processed computer screen corresponds to each user's identification information. It is transmitted to the user-side information processing apparatus 20 (step 24).
Then, the VR synthesis processing unit 22 in the user-side information processing apparatus 20 synthesizes the processed computer screen with the computer screen in the VR office, and displays the computer screen in the VR office (step 25).

以上のように、本実施形態のオフィス用VRシステムによれば、VRオフィスの一部にシンクライアント化されたコンピュータ画面を表示することができる。
また、そのコンピュータ画面の解像度をVRオフィスにおけるユーザからの位置に応じて、調整することができる。
さらに、他のユーザのコンピュータ画面を、ユーザの権限情報に応じて表示させたり、表示させないようにしたりすることも可能である。
As described above, according to the VR system for offices of the present embodiment, it is possible to display a computer screen as a thin client in a part of the VR office.
In addition, the resolution of the computer screen can be adjusted according to the position from the user in the VR office.
Further, it is possible to display or hide the computer screen of another user according to the user's authority information.

[第三実施形態]
次に、本発明の第三実施形態について、図8及び図9を参照して説明する。図8は、本実施形態のオフィス用VRシステムにおけるVR処理装置の構成を示すブロック図である。図9は、同システムにおけるVR処理装置の処理手順を示すフローチャートである。
[Third Embodiment]
Next, the third embodiment of the present invention will be described with reference to FIGS. 8 and 9. FIG. 8 is a block diagram showing a configuration of a VR processing device in the office VR system of the present embodiment. FIG. 9 is a flowchart showing a processing procedure of the VR processing device in the system.

本実施形態のオフィス用VRシステムは、第一実施形態の構成に加えて、ユーザの三次元画像における顔画像に、ユーザの感情に応じた表情を付加する構成を有している。その他の点については、第一実施形態と同様の構成とすることができる。
すなわち、本実施形態のオフィス用VRシステムにおけるVR処理装置200aは、図8に示すように、顔感情記憶部204、表情画像作成部205、及び強調画像付加部206を備えている。
In addition to the configuration of the first embodiment, the office VR system of the present embodiment has a configuration of adding a facial expression according to the user's emotion to the facial image in the user's three-dimensional image. Other points can be the same as that of the first embodiment.
That is, as shown in FIG. 8, the VR processing device 200a in the office VR system of the present embodiment includes a facial expression memory unit 204, a facial expression image creation unit 205, and an emphasized image addition unit 206.

ここで、一般に、在宅勤務中の人は、わざわざ身支度や化粧をしていない場合が多く、在宅勤務中の自分の顔の画像を、他人に見られたくはないものである。
しかし、例えば通常のテレビ会議システムでは、リアルタイムに人の顔が動画として撮影されて、他の社員に表示されてしまう。このため、在宅勤務でテレビ会議システムを使用する場合には、自宅にいても服装を整えたり、化粧をしたりしなくてはならなかった。
このような負担をなくすために、本実施形態のオフィス用VRシステムでは、顔を単に撮影してVRオフィスに表示するのではなく、その表情だけを他の社員に伝える仕組みを導入している。
Here, in general, people who work from home often do not bother to get dressed or make up, and do not want others to see the image of their face while working from home.
However, for example, in a normal video conference system, a person's face is shot as a moving image in real time and displayed to other employees. For this reason, when using the video conference system while working from home, it was necessary to dress and make up even at home.
In order to eliminate such a burden, the office VR system of the present embodiment introduces a mechanism for transmitting only the facial expression to other employees, instead of simply taking a picture of the face and displaying it in the VR office.

顔感情記憶部204は、様々な表情の顔画像と、感情及び感情の程度を表す数値(以下、これを顔感情値と称する場合がある。)を対応付けて記憶する。
この顔感情記憶部204は、ニューラルネットワークを使用して、いわゆる「教師あり学習」の手法によって作成する。
具体的には、様々な多数の顔の画像(笑った顔、怒った顔、悲しい顔、驚いた顔等)と、そのときの感情の程度を表す数値をセットにして、ニューラルネットワークに学習させる。例えば、顔感情値を1から10までの数値とし、1を感情が最も小さく、10を感情が最も大きいとする。
The facial emotion storage unit 204 stores facial images of various facial expressions in association with a numerical value indicating emotions and the degree of emotions (hereinafter, this may be referred to as a facial emotion value).
The facial emotion storage unit 204 is created by a so-called "supervised learning" method using a neural network.
Specifically, a neural network is trained by setting a large number of various facial images (laughing face, angry face, sad face, surprised face, etc.) and numerical values indicating the degree of emotion at that time. .. For example, the facial emotion value is a numerical value from 1 to 10, where 1 is the smallest emotion and 10 is the largest emotion.

顔感情記憶部204の作成にあたり、データ入力者らは、ある顔の表情が、どのような感情を表現したものであり、どの顔感情値に相当するのかを自己申告の方法により主観的に申告し、例えば、笑った顔10、怒った顔5、悲しい顔3等の感情と顔感情値を顔画像と共にニューラルネットワークに学習させて、このニューラルネットワークを顔感情記憶部204として得ることができる。このようにして、顔感情記憶部204には、大量の様々な顔画像と、それぞれに対応する感情及び顔感情値が蓄積される。
このようなニューラルネットワークによる学習は、例えば、Google社のTENSORFLOW(登録商標)などを用いて行うことができる。
In creating the facial emotion storage unit 204, the data inputters subjectively declare what kind of emotion a certain facial expression expresses and which facial emotion value corresponds to by a self-reporting method. Then, for example, emotions such as a laughing face 10, an angry face 5, and a sad face 3 and facial emotion values can be learned by a neural network together with a facial image, and this neural network can be obtained as the facial emotion storage unit 204. In this way, a large amount of various facial images and corresponding emotions and facial emotion values are accumulated in the facial emotion storage unit 204.
Learning by such a neural network can be performed using, for example, TENSORFLOW (registered trademark) manufactured by Google.

表情画像作成部205は、ユーザ側情報処理装置20から送信されてきたユーザの識別情報と顔画像を、WEB処理部300を介して入力する。そして、入力した顔画像にもとづいて、顔感情記憶部204からその顔画像に最も近い画像と、これに対応付けられた感情及び顔感情値を取得する。 The facial expression image creating unit 205 inputs the user's identification information and the face image transmitted from the user-side information processing apparatus 20 via the WEB processing unit 300. Then, based on the input facial image, the image closest to the facial image and the emotions and facial emotion values associated with the image are acquired from the facial emotion storage unit 204.

また、表情画像作成部205は、ユーザ記憶部101から当該ユーザの識別情報に対応する顔画像(無表情のもの)を取得して、この顔画像に対して、感情及び顔感情値にもとづき変形加工を施すことにより、表情を付加した表情画像を得ることができる。
この場合、ユーザ記憶部101には、予めユーザの識別情報ごとに、ユーザの三次元画像の顔画像(無表情のもの)を記憶させておく。
Further, the facial expression image creating unit 205 acquires a facial image (expressionless) corresponding to the identification information of the user from the user storage unit 101, and deforms the facial image based on emotions and facial emotion values. By applying the processing, a facial expression image with a facial expression can be obtained.
In this case, the user storage unit 101 stores in advance a face image (expressionless) of the user's three-dimensional image for each user's identification information.

具体的には、表情画像作成部205は、無表情の顔画像における各パーツ(目、鼻、眉などの部分画像とその位置情報)を抽出する。また、表情画像作成部205は、各パーツの移動、サイズ変更、および色等を、一般的な顔表情の変化の経験則にもとづいて、感情及び顔感情値にしたがって変化させるようにあらかじめプログラムされており、無表情の顔画像に変形加工を施して、表情を付加することができる。これにより、感情によって人の顔画像の各パーツが移動したり、サイズが変わったり(目が大きくなるとか、口が開くなど)、また顔色が変わったりすることなどの表現が可能となっている。 Specifically, the facial expression image creating unit 205 extracts each part (partial images such as eyes, nose, and eyebrows and their position information) in the expressionless face image. Further, the facial expression image creating unit 205 is pre-programmed to change the movement, resizing, color, etc. of each part according to emotions and facial emotion values based on the empirical rules of general facial expression changes. It is possible to add facial expressions by applying deformation processing to the expressionless face image. This makes it possible to express that each part of a person's face image moves depending on emotions, the size changes (eyes become larger, mouth opens, etc.), and the complexion changes. ..

なお、ユーザ記憶部101にユーザの識別情報ごとに、感情及び顔感情値に応じた様々な表情画像を記憶させておき、表情画像作成部205が、感情及び顔感情値にもとづいて、ユーザ記憶部101から対応する表情画像を取得する構成にすることも可能である。 The user storage unit 101 stores various facial expression images according to emotions and facial emotion values for each user identification information, and the facial expression image creation unit 205 stores the user based on the emotions and facial emotion values. It is also possible to acquire the corresponding emotional image from the unit 101.

そして、表情画像作成部205は、得られた表情画像及びユーザの識別情報をVR情報作成部203に出力し、VR情報作成部203は、VR情報においてユーザの識別情報に対応する表情画像を含めて、ユーザ側情報処理装置20側に送信する。
ユーザ側情報処理装置20におけるVR合成処理部22は、表情画像を含むVR情報を入力し、各ユーザの三次元画像を画像記憶部21から取得して、それぞれ対応する表情画像を各ユーザの三次元画像に合成して、VRオフィスの画像を作成する。
具体的には、この合成は、例えば、Unity(ユニティ・テクノロジーズ・ジャパン合同会社)などによって行うことができる。
Then, the facial expression image creating unit 205 outputs the obtained facial expression image and the user's identification information to the VR information creating unit 203, and the VR information creating unit 203 includes the facial expression image corresponding to the user's identification information in the VR information. Then, the information is transmitted to the information processing apparatus 20 on the user side.
The VR synthesis processing unit 22 in the user-side information processing apparatus 20 inputs VR information including a facial expression image, acquires a three-dimensional image of each user from the image storage unit 21, and obtains the corresponding facial expression image as a tertiary of each user. Create an image of the VR office by synthesizing it with the original image.
Specifically, this synthesis can be performed by, for example, Unity (Unity Technologies Japan GK).

また、VR情報に表情画像を含めるのではなく、感情及び顔感情値を含めて、ユーザ側情報処理装置20に送信し、VR合成処理部22によって、表情画像を作成する構成とすることもできる。この場合、画像記憶部21に各ユーザの無表情の顔画像を記憶させておき、上述した表情画像作成部205と同様の方法で、無表情の顔画像を変形加工して、表情画像を得ることができる。そして、得られた表情画像を二次元の画像から三次元の画像に変換処理して各ユーザの三次元画像に合成し、VRオフィスの画像内に表示させることができる。 Further, instead of including the facial expression image in the VR information, the emotion and the facial emotion value may be included and transmitted to the user-side information processing apparatus 20, and the facial expression image may be created by the VR synthesis processing unit 22. .. In this case, the expressionless face image of each user is stored in the image storage unit 21, and the expressionless face image is deformed by the same method as the above-mentioned facial expression image creation unit 205 to obtain a facial expression image. be able to. Then, the obtained facial expression image can be converted from a two-dimensional image to a three-dimensional image, combined with the three-dimensional image of each user, and displayed in the image of the VR office.

なお、VRオフィスの画像内には、ユーザ側情報処理装置20を使用する当該ユーザ自身の画像は表示されないため、通常は、自分の表情画像を見ることはできない。しかしながら、自分の感情及び顔感情値と、自分の表情画像とが適切に対応していることを確認可能とし、相違している場合には、顔感情記憶部204に学習可能にすることも好ましい。 Since the image of the user himself / herself who uses the information processing apparatus 20 on the user side is not displayed in the image of the VR office, he / she cannot usually see his / her facial expression image. However, it is also preferable to make it possible to confirm that one's emotion and facial emotion value correspond appropriately to one's facial expression image, and if they are different, make it possible for the facial emotion storage unit 204 to learn. ..

例えば、VR処理装置200aからユーザ側情報処理装置20へ当該ユーザの表情画像をVR情報に含めて送信させ、ユーザ側情報処理装置20における表情画像確認部(図示していない)により自己の表情画像を表示させることができる。そして、その表情画像が自己の感情を適切に表示していないと思われる場合に、感情及び顔感情値の修正値を入力させて、表情画像と共にVR処理装置200aへ送信させることができる。 For example, the VR processing device 200a causes the user-side information processing device 20 to include the user's facial expression image in the VR information and transmit the user's facial expression image, and the facial expression image confirmation unit (not shown) in the user-side information processing device 20 transmits the user's facial expression image. Can be displayed. Then, when it seems that the facial expression image does not properly display one's own emotions, the corrected values of the emotions and the facial emotion values can be input and transmitted to the VR processing device 200a together with the facial expression images.

そして、VR処理装置200aにおける顔感情更新部(図示していない)により、受信した感情及び顔感情値並びに表情画像を顔感情記憶部204に入力させて、学習させる構成とすることができる。
これにより、顔感情記憶部204と表情画像作成部205による、当該ユーザなどの顔画像から感情を抽出する能力を学習によって向上させることが可能となる。
Then, the facial emotion updating unit (not shown) in the VR processing device 200a can input the received emotion, the facial emotion value, and the facial expression image into the facial emotion storage unit 204 for learning.
This makes it possible to improve the ability of the facial emotion storage unit 204 and the facial expression image creation unit 205 to extract emotions from the facial image of the user or the like by learning.

さらに、ユーザ記憶部101に、ユーザの顔写真からなる顔画像を記憶させておく他、似顔絵などの絵からなる顔画像をユーザの識別情報ごとに記憶させておくようにすることもできる。そして、このような絵からなる顔画像を用いて、表情画像作成部205により上記と同様の方法で、表情画像を得ることも可能である。 Further, in addition to storing a face image composed of a user's face photograph in the user storage unit 101, it is also possible to store a face image composed of a picture such as a caricature for each user's identification information. Then, using a face image composed of such a picture, it is also possible to obtain a facial expression image by the facial expression image creating unit 205 by the same method as described above.

強調画像付加部206は、表情画像作成部205から感情及び顔感情値を入力し、これに対応する強調表示画像を取得して表情画像作成部205に出力し、表情画像作成部205により強調表示画像を付加した表情画像を作成させることができる。
例えば、VR処理装置200aにおいて、感情及び顔感情値に対応する強調表示画像を記憶する強調画像記憶部(図示していない)を備えて、強調画像付加部206が、入力した感情及び顔感情値にもとづき強調画像記憶部から対応する強調表示画像を取得して、表情画像作成部205へ出力する構成とすることができる。
表情画像作成部205は、表情画像に対して、さらに強調表示画像を重ね合わせて、強調表示画像を付加した表情画像を作成することができる。
The highlighted image addition unit 206 inputs emotions and facial emotion values from the facial expression image creating unit 205, acquires the corresponding highlighted image, outputs it to the facial expression image creating unit 205, and highlights it by the facial expression image creating unit 205. It is possible to create a facial expression image with an image added.
For example, in the VR processing device 200a, the highlighted image storage unit (not shown) for storing the highlighted image corresponding to the emotion and the facial emotion value is provided, and the emphasized image addition unit 206 has input the emotion and the facial emotion value. Based on this, it is possible to acquire the corresponding highlighted image from the highlighted image storage unit and output it to the emotional image creating unit 205.
The facial expression image creating unit 205 can create a facial expression image to which a highlighted image is added by superimposing a highlighted image on the facial expression image.

例えば、強調画像付加部206は、怒った顔10(怒っている感情を最大に表す)に対応付けて、頭に湯気を書き加える強調表示画像を付加したり、悲しい顔10(悲しい感情を最大に表す)に対応付けて、涙を流している強調表示画像を付加したりすることができる。強調表示画像は、絵であっても写真などであっても良い。 For example, the highlighted image addition unit 206 may add a highlighted image that adds steam to the head in association with the angry face 10 (maximizing the angry emotion), or the sad face 10 (maximizing the sad emotion). It is possible to add a highlight image that sheds tears in association with (represented in). The highlighted image may be a picture or a photograph.

次に、本実施形態のオフィス用VRシステムにおけるVR処理装置200aの処理手順について、図9を参照して説明する。
VR処理装置200aにおける表情画像作成部205は、ユーザ側情報処理装置20からユーザの顔画像をユーザの識別情報と共に入力する(ステップ30)。そして、入力した顔画像にもとづいて、顔感情記憶部204からその顔画像に最も近い画像と、これに対応付けられた感情及び顔感情値を取得する(ステップ31)。
Next, the processing procedure of the VR processing device 200a in the office VR system of the present embodiment will be described with reference to FIG.
The facial expression image creating unit 205 in the VR processing device 200a inputs the user's face image from the user-side information processing device 20 together with the user's identification information (step 30). Then, based on the input facial image, the image closest to the facial image and the emotions and facial emotion values associated with the image are acquired from the facial emotion storage unit 204 (step 31).

また、表情画像作成部205は、ユーザ記憶部101から当該ユーザの識別情報に対応する顔画像を取得する(ステップ32)。
そして、表情画像作成部205は、この顔画像に対して、感情及び顔感情値にもとづき加工を施して、表情を付加した表情画像を作成する(ステップ33)。
Further, the facial expression image creating unit 205 acquires a face image corresponding to the identification information of the user from the user storage unit 101 (step 32).
Then, the facial expression image creating unit 205 processes the facial image based on the emotion and the facial emotion value to create a facial expression image to which the facial expression is added (step 33).

さらに、VR処理装置200aにおける強調画像付加部206は、表情画像作成部205から感情及び顔感情値を入力し、これに対応する強調表示画像を取得して表情画像作成部205に出力する(ステップ34)。
表情画像作成部205は、強調表示画像を付加した表情画像を作成して、得られた表情画像及びユーザの識別情報をVR情報作成部203に出力し、VR情報作成部203により、VR情報に表情画像が含められて、ユーザ側情報処理装置20側に送信される(ステップ35)。
Further, the enhanced image addition unit 206 in the VR processing device 200a inputs emotions and facial emotion values from the facial expression image creating unit 205, acquires the corresponding highlighted image, and outputs it to the facial expression image creating unit 205 (step). 34).
The facial expression image creating unit 205 creates a facial expression image to which a highlighted image is added, outputs the obtained facial expression image and user identification information to the VR information creating unit 203, and the VR information creating unit 203 converts the obtained facial expression image into VR information. The facial expression image is included and transmitted to the user side information processing apparatus 20 side (step 35).

以上のように、本実施形態のオフィス用VRシステムによれば、ユーザの顔画像に表情を付加できるのみならず、感情の度合いを数値化することにより、強調表示画像を付加することで、特別な感情を一層明示的に表現することが可能になっている。
これらの効果は、従来の顔の特徴点の動きを数値化し、その数値にもとづき顔の画像を変化させる方法では得ることができなかったものである。
As described above, according to the VR system for office of the present embodiment, not only the facial expression can be added to the face image of the user, but also the highlight image can be added by quantifying the degree of emotion. It is possible to express various emotions more explicitly.
These effects cannot be obtained by the conventional method of quantifying the movement of facial feature points and changing the facial image based on the numerical values.

[第四実施形態]
次に、本発明の第四実施形態について、図10及び図11を参照して説明する。図10は、本実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の構成を示すブロック図である。図11は、同システムにおけるユーザ側情報処理装置の処理手順を示すフローチャートである。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIGS. 10 and 11. FIG. 10 is a block diagram showing a configuration of a user-side information processing device in the office VR system of the present embodiment. FIG. 11 is a flowchart showing a processing procedure of the user-side information processing apparatus in the system.

本実施形態のオフィス用VRシステムは、第一実施形態の構成に加えて、VRオフィスを表示するのに先立って、エレベータを表示させる構成を有している。その他の点については、第一実施形態と同様の構成とすることができる。
すなわち、本実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置20aは、図10に示すように、エレベータ表示部26を備えている。
また、本実施形態のユーザ側情報処理装置20aにおける画像記憶部21は、エレベータの三次元画像を記憶している。
The office VR system of the present embodiment has, in addition to the configuration of the first embodiment, a configuration of displaying an elevator prior to displaying the VR office. Other points can be the same as that of the first embodiment.
That is, as shown in FIG. 10, the user-side information processing device 20a in the office VR system of the present embodiment includes an elevator display unit 26.
Further, the image storage unit 21 in the user-side information processing apparatus 20a of the present embodiment stores a three-dimensional image of the elevator.

エレベータ表示部26は、画像記憶部21からエレベータの三次元画像を取得して、VRオフィスが存在する階へ行くためのエレベータ(以下、VRエレベータと称する場合がある。)を表示装置32に表示させる。
このとき、エレベータ表示部26は、エレベータの扉が閉じた状態から開いた状態に移行する画像を表示させ、ユーザがエレベータ内に移動して扉側に振り向く操作を行うと、エレベータの扉が開いた状態から閉じた状態に移行する画像を表示させることができる。
このようなエレベータ表示部26による表示は、VR合成処理部22と同様に、ユーザ側情報処理装置20aに入力された情報にもとづいて、例えば、Unity(ユニティ・テクノロジーズ・ジャパン合同会社)などを用いて行うことができる。
The elevator display unit 26 acquires a three-dimensional image of the elevator from the image storage unit 21 and displays an elevator (hereinafter, may be referred to as a VR elevator) for going to the floor where the VR office is located on the display device 32. Let me.
At this time, the elevator display unit 26 displays an image in which the elevator door changes from the closed state to the open state, and when the user moves into the elevator and turns to the door side, the elevator door opens. It is possible to display an image that shifts from the closed state to the closed state.
Similar to the VR synthesis processing unit 22, such an elevator display unit 26 displays using, for example, Unity (Unity Technologies Japan GK) based on the information input to the user-side information processing device 20a. Can be done.

また、エレベータ表示部26は、エレベータ内に、一般的なエレベータと同様に、開閉ボタンと階数ボタンを表示し、ユーザ側情報処理装置20aに入力された開閉のいずれかを示す情報にもとづいて、扉の開閉を表示することができる。また、エレベータ表示部26は、ユーザ側情報処理装置20aに入力された階数を示す情報にもとづいて、VRエレベータ内において、指定された階数ボタンを点灯表示させることもできる。 Further, the elevator display unit 26 displays an open / close button and a floor number button in the elevator in the same manner as a general elevator, and is based on information indicating either open / close input to the information processing apparatus 20a on the user side. The opening and closing of the door can be displayed. Further, the elevator display unit 26 can also turn on and display the designated floor number button in the VR elevator based on the information indicating the floor number input to the user-side information processing apparatus 20a.

そして、エレベータ表示部26は、扉を閉じる表示を行ってから一定時間経過後、指定された階数ごとに、エレベータの扉が閉じた状態から開いた状態に移行する画像を表示させる。
次に、エレベータ表示部26は、エレベータから外側に移動する画像を表示して、VR合成処理部22によりVRオフィスを表示させる。
Then, the elevator display unit 26 displays an image in which the elevator door changes from the closed state to the open state for each designated number of floors after a certain period of time has elapsed from the display of closing the door.
Next, the elevator display unit 26 displays an image moving outward from the elevator, and the VR synthesis processing unit 22 displays the VR office.

また、エレベータ表示部26は、VR合成処理部22からユーザの位置情報を入力し、他のユーザがエレベータの位置に仮想的に存在している場合、画像記憶部21から当該ユーザの三次元画像を取得して、当該他のユーザをエレベータ内に表示させる。
このエレベータ表示部26によるエレベータの表示は、ユーザの生体認証が成功して、入口を通過する場合の画像を表示させた後に行うことができる。
Further, the elevator display unit 26 inputs the user's position information from the VR synthesis processing unit 22, and when another user virtually exists at the elevator position, the image storage unit 21 displays the user's three-dimensional image. Is acquired and the other user is displayed in the elevator.
The display of the elevator by the elevator display unit 26 can be performed after the biometric authentication of the user is successful and the image when passing through the entrance is displayed.

また、エレベータ表示部26は、エレベータを表示すると共に、現在の時刻情報を取得して、現在時刻が就業時間内である場合にのみ扉の開閉表示を行い、現在時刻が就業時間内でない場合には、その旨を表示装置32に表示させるか、又は音声出力装置33によりアナウンスさせて、エレベータの扉を開く画像表示を行わず、ユーザがエレベータ内に進入できないようにすることもできる。 Further, the elevator display unit 26 displays the elevator, acquires the current time information, and displays the opening / closing of the door only when the current time is within the working hours, and when the current time is not within the working hours. Can also display to that effect on the display device 32 or make an announcement by the audio output device 33 to prevent the user from entering the elevator without displaying an image that opens the elevator door.

次に、本実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置20aの処理手順について、図11を参照して説明する。
まず、ユーザ側情報処理装置20aにおけるエレベータ表示部26は、画像記憶部21からエレベータの三次元画像を取得して、VRオフィスが存在する階へ行くためのエレベータを表示装置32に表示させる(ステップ40)。
Next, the processing procedure of the user-side information processing apparatus 20a in the office VR system of the present embodiment will be described with reference to FIG.
First, the elevator display unit 26 in the user-side information processing device 20a acquires a three-dimensional image of the elevator from the image storage unit 21 and displays the elevator for going to the floor where the VR office is located on the display device 32 (step). 40).

また、エレベータ表示部26は、現在の時刻情報を取得して、現在時刻が就業時間内であるか否かを判定する(ステップ41)。
そして、エレベータ表示部26は、現在の時刻情報が就業時間内でない場合には、エレベータの扉を開く画像表示を行わず、ユーザをVRエレベータ内に進入できないようにする(ステップ42)。
Further, the elevator display unit 26 acquires the current time information and determines whether or not the current time is within the working hours (step 41).
Then, the elevator display unit 26 does not display an image for opening the elevator door when the current time information is not within working hours, and prevents the user from entering the VR elevator (step 42).

一方、現在の時刻情報が就業時間内である場合、エレベータ表示部26は、エレベータの扉を開閉する表示を行い、ユーザをVRエレベータ内に進入可能とする(ステップ43)。
また、エレベータ表示部26は、VR合成処理部22からユーザの位置情報を入力し(ステップ44)、他のユーザがエレベータの位置に仮想的に存在している場合、画像記憶部21から当該ユーザの三次元画像を取得して、当該他のユーザをエレベータ内に表示させる(ステップ45)。
そして、エレベータ表示部26は、指定された階数に到着して扉を開く画像の表示を行った後、エレベータから外側に移動する画像を表示して、VR合成処理部22によりVRオフィスを表示させる(ステップ46)。
On the other hand, when the current time information is within working hours, the elevator display unit 26 displays the opening and closing of the elevator door and allows the user to enter the VR elevator (step 43).
Further, the elevator display unit 26 inputs the user's position information from the VR synthesis processing unit 22 (step 44), and when another user virtually exists at the elevator position, the user from the image storage unit 21. The three-dimensional image of the above is acquired, and the other user is displayed in the elevator (step 45).
Then, the elevator display unit 26 displays an image that arrives at the designated number of floors and opens the door, then displays an image that moves outward from the elevator, and the VR synthesis processing unit 22 displays the VR office. (Step 46).

以上のように、本実施形態のオフィス用VRシステムによれば、ユーザは、エレベータに乗って実際に出勤するのと同様の感覚で、VRオフィスに出勤することができ、気持ちを仕事モードに切り替えることができる。
また、エレベータに他のユーザと乗り合わせた場合には、挨拶を行うなど、コミュニケーションを図ることも可能となる。
さらに、就業時間外にはエレベータを動作しないようにすることで、時間外労働を防止することも可能となっている。
As described above, according to the VR system for offices of the present embodiment, the user can go to work in the VR office as if he / she actually goes to work in the elevator, and switches his / her feelings to the work mode. be able to.
In addition, when the elevator is shared with other users, it is possible to communicate by giving a greeting.
Furthermore, it is possible to prevent overtime work by preventing the elevator from operating outside working hours.

[第五実施形態]
次に、本発明の第五実施形態について、図12及び図13を参照して説明する。図12は、本実施形態のオフィス用VRシステムにおけるVR処理装置の構成を示すブロック図である。図13は、同システムにおけるVR処理装置の処理手順を示すフローチャートである。
[Fifth Embodiment]
Next, the fifth embodiment of the present invention will be described with reference to FIGS. 12 and 13. FIG. 12 is a block diagram showing a configuration of a VR processing device in the office VR system of the present embodiment. FIG. 13 is a flowchart showing a processing procedure of the VR processing apparatus in the system.

本実施形態のオフィス用VRシステムは、第一実施形態の構成に加えて、VRオフィスにおいてユーザが他のユーザと会話をすることができ、またユーザ間で使用している言語が異なっている場合に、翻訳して音声出力する構成を有している。その他の点については、第一実施形態と同様の構成とすることができる。
すなわち、本実施形態のオフィス用VRシステムにおけるVR処理装置200bは、図12に示すように、会話送信部207、及び翻訳作成部208を備えている。
In the office VR system of the present embodiment, in addition to the configuration of the first embodiment, when a user can talk with another user in the VR office and the languages used by the users are different. It has a configuration for translating and outputting audio. Other points can be the same as that of the first embodiment.
That is, as shown in FIG. 12, the VR processing device 200b in the office VR system of the present embodiment includes a conversation transmission unit 207 and a translation creation unit 208.

会話送信部207は、ユーザ側情報処理装置20から送信されてきた音声情報を入力する。また、会話送信部207は、ユーザ記憶部101に記憶されている当該ユーザ側情報処理装置20を使用するユーザの位置情報と、他のユーザ側情報処理装置20を使用する他のユーザの位置情報をVR情報作成部203から入力して、ユーザの識別情報ごとに、当該ユーザの音声情報の音量と出力位置を決定して、他のユーザ側情報処理装置20へ送信する。 The conversation transmission unit 207 inputs the voice information transmitted from the user-side information processing apparatus 20. Further, the conversation transmission unit 207 contains the position information of the user who uses the user-side information processing device 20 stored in the user storage unit 101 and the position information of another user who uses the other user-side information processing device 20. Is input from the VR information creation unit 203, the volume and output position of the user's voice information are determined for each user's identification information, and the information is transmitted to another user-side information processing device 20.

具体的には、会話送信部207は、遠くにいるユーザからの音声情報の音量を小さく設定し、近くにいるユーザからの音声情報の音量を大きく設定する。また、右側のユーザからの音声情報は右側に配置されている音声出力装置33から、左側のユーザからの音声情報は左側に配置されている音声出力装置33から出力されるように設定する。 Specifically, the conversation transmission unit 207 sets the volume of voice information from a user who is far away to be low, and sets the volume of voice information from a user who is near to be high. Further, the voice information from the user on the right side is set to be output from the voice output device 33 arranged on the right side, and the voice information from the user on the left side is set to be output from the voice output device 33 arranged on the left side.

また、後ろのユーザからの音声情報は後ろ側に配置されている音声出力装置33から出力されるなど、立体音響になるようにする設定することも好ましい。立体音響は、スピーカを前後に置く方法、擬似的に前後の音響を表現する立体音響ヘッドフォンなどを用いることで、実現することが可能である。 Further, it is also preferable to set the audio information from the user behind to be stereophonic, such as being output from the audio output device 33 arranged on the rear side. Stereophonic sound can be realized by using a method of placing speakers in the front and back, a stereophonic headphone that expresses the front and back sound in a pseudo manner, and the like.

さらに、会話送信部207は、ユーザ側情報処理装置20からの会話送信停止指示情報の入力にもとづいて、ユーザ側情報処理装置20に対して、他のユーザからの音声情報を送信しないようにすることもできる。
このようにすれば、ユーザが集中したい場合などには、他のユーザからの音声情報をユーザ側情報処理装置20から出力させないことが可能となる。
Further, the conversation transmission unit 207 prevents the user-side information processing apparatus 20 from transmitting voice information from another user based on the input of the conversation transmission stop instruction information from the user-side information processing apparatus 20. You can also do it.
By doing so, when the users want to concentrate, it is possible to prevent the user-side information processing apparatus 20 from outputting the voice information from other users.

また、セキュリティ上の観点から、特定のユーザからの音声情報が、他のユーザのユーザ側情報処理装置20へ送信されないようにすることもできる。
例えば、会話送信部207は、社長や取締役のユーザの識別情報に対応する音声情報について、一般社員の識別情報のユーザが使用するユーザ側情報処理装置20に送信しないようにすることができる。
さらにまた、会話送信部207は、ユーザの位置情報が特定の場所に存在している場合のユーザのユーザ側情報処理装置20から送信されてきた音声情報について、他のユーザが使用するユーザ側情報処理装置20に送信しないようにすることができる。これにより、例えば会議室の会話を、防音設備などを備えることなく、外に漏れることを防止することが可能となる。
Further, from the viewpoint of security, it is possible to prevent the voice information from a specific user from being transmitted to the user-side information processing apparatus 20 of another user.
For example, the conversation transmission unit 207 can prevent the voice information corresponding to the identification information of the president or the director from being transmitted to the user-side information processing apparatus 20 used by the user of the identification information of a general employee.
Furthermore, the conversation transmission unit 207 is the user-side information used by other users with respect to the voice information transmitted from the user-side information processing apparatus 20 of the user when the user's position information exists in a specific place. It is possible to prevent transmission to the processing device 20. This makes it possible to prevent, for example, conversations in a conference room from leaking to the outside without providing soundproofing equipment or the like.

翻訳作成部208は、会話送信部207から音声情報を入力して言語の種類を判定し、VRオフィスに存在するユーザの識別情報ごとに特定の言語に翻訳することができる。
具体的には、ユーザ記憶部101は、ユーザの識別情報ごとに、言語の種類を記憶する。翻訳作成部208は、VRオフィスに存在するユーザの識別情報をVR情報作成部203から取得して、これらのユーザに対応する言語の種類をユーザ記憶部101から取得する。そして、翻訳作成部208は、上記判定した言語の種類が、上記取得した言語の種類と異なる場合に、会話送信部207から入力した音声情報をテキスト変換し、ユーザの識別情報ごとに対応する言語の種類に機械翻訳して、得られた翻訳文を音声変換して会話送信部207へ出力することができる。
The translation creation unit 208 can input voice information from the conversation transmission unit 207, determine the type of language, and translate each user's identification information existing in the VR office into a specific language.
Specifically, the user storage unit 101 stores the type of language for each user identification information. The translation creation unit 208 acquires the identification information of the users existing in the VR office from the VR information creation unit 203, and acquires the language type corresponding to these users from the user storage unit 101. Then, when the type of the language determined above is different from the type of the acquired language, the translation creation unit 208 converts the voice information input from the conversation transmission unit 207 into text, and the language corresponding to each user's identification information. The translated text can be machine-translated into the above types, and the obtained translated text can be voice-converted and output to the conversation transmission unit 207.

このとき、翻訳作成部208による言語の種類の判定処理、音声情報のテキスト変換処理、及び機械翻訳処理、翻訳文の音声変換は、例えば、TENSORFLOW(登録商標)などによるニューラルネットワークを用いた機械翻訳システムなどにより行うことが可能である。
これによって、ユーザが様々な言語を使用する場合でも、他のユーザのユーザ側情報処理装置20へ送信する音声情報を、そのユーザが使用する言語に翻訳した後に送信することが可能となる。
At this time, the language type determination processing, the voice information text conversion processing, the machine translation processing, and the voice conversion of the translated text by the translation creation unit 208 are performed by machine translation using a neural network such as TENSORFLOW (registered trademark). It can be done by a system or the like.
As a result, even when the user uses various languages, the voice information to be transmitted to the user-side information processing apparatus 20 of another user can be translated into the language used by the user and then transmitted.

次に、本実施形態のオフィス用VRシステムにおけるVR処理装置200bの処理手順について、図13を参照して説明する。
まず、VR処理装置200bにおける会話送信部207は、ユーザ側情報処理装置20から送信されてきた音声情報を入力する(ステップ50)。
会話送信部207は、ユーザ側情報処理装置20から会話送信の停止指示情報を入力したか否かを判定し(ステップ51)、停止指示情報の入力がある場合(ステップ51のYes)、ユーザ側情報処理装置20に対して、他のユーザからの音声情報を送信しない(ステップ52)。
Next, the processing procedure of the VR processing device 200b in the office VR system of the present embodiment will be described with reference to FIG.
First, the conversation transmission unit 207 in the VR processing device 200b inputs the voice information transmitted from the user-side information processing device 20 (step 50).
The conversation transmission unit 207 determines whether or not the conversation transmission stop instruction information has been input from the user-side information processing device 20 (step 51), and if the stop instruction information has been input (Yes in step 51), the user side. The voice information from another user is not transmitted to the information processing apparatus 20 (step 52).

また、会話送信部207は、入力した音声情報が、特定のユーザが使用するユーザ側情報処理装置20からのものであるか否かを、対応するユーザの識別情報にもとづき判定し(ステップ53)、特定のユーザからのものである場合(ステップ53のYes)、音声情報を他のユーザが使用するユーザ側情報処理装置20へ送信しない(ステップ52)。
さらに、会話送信部207は、ユーザの位置情報が特定の場所に存在しているか否かを判定し(ステップ54)、特定の場所に存在している場合(ステップ54のYes)、音声情報を他のユーザが使用するユーザ側情報処理装置20に送信しない(ステップ52)。
Further, the conversation transmission unit 207 determines whether or not the input voice information is from the user-side information processing device 20 used by a specific user based on the identification information of the corresponding user (step 53). If it is from a specific user (Yes in step 53), the voice information is not transmitted to the user-side information processing apparatus 20 used by another user (step 52).
Further, the conversation transmission unit 207 determines whether or not the user's position information exists in a specific place (step 54), and if it exists in a specific place (Yes in step 54), the voice information is transmitted. It is not transmitted to the user-side information processing apparatus 20 used by another user (step 52).

上記のいずれにも該当しない場合(ステップ51のNo,ステップ53のNo,ステップ54のNo)、VR処理装置200bにおける翻訳作成部208は、会話送信部207から音声情報を入力して言語の種類を判定する(ステップ55)。
また、翻訳作成部208は、VRオフィスに存在するユーザの識別情報をVR情報作成部203から取得して、これらのユーザに対応する言語の種類をユーザ記憶部101から取得し、上記判定した言語の種類が、上記取得した言語の種類と異なる場合に、会話送信部207から入力した音声情報をテキスト変換して(ステップ56)、ユーザの識別情報ごとに対応する言語の種類に機械翻訳して得られた翻訳文を音声変換し(ステップ57)、得られた音声情報を会話送信部207へ出力する。
When none of the above applies (No in step 51, No in step 53, No in step 54), the translation creation unit 208 in the VR processing device 200b inputs voice information from the conversation transmission unit 207 to input the type of language. Is determined (step 55).
Further, the translation creation unit 208 acquires the identification information of the user existing in the VR office from the VR information creation unit 203, acquires the type of the language corresponding to these users from the user storage unit 101, and determines the language described above. When the type of is different from the type of the acquired language, the voice information input from the conversation transmission unit 207 is converted into text (step 56), and machine-translated into the corresponding language type for each user's identification information. The obtained translated text is voice-converted (step 57), and the obtained voice information is output to the conversation transmission unit 207.

そして、会話送信部207は、ユーザ記憶部101に記憶されている当該ユーザ側情報処理装置20を使用するユーザの位置情報と、他のユーザ側情報処理装置20を使用する他のユーザの位置情報をVR情報作成部203から入力して、ユーザの識別情報ごとに、当該ユーザの音声情報の音量と出力位置を決定する(ステップ58)。
そして、会話送信部207は、音声情報(翻訳された場合はその音声情報)、及びその音量と出力位置を、他のユーザ側情報処理装置20へ送信する(ステップ59)。
Then, the conversation transmission unit 207 contains the position information of the user who uses the user-side information processing device 20 stored in the user storage unit 101 and the position information of another user who uses the other user-side information processing device 20. Is input from the VR information creation unit 203, and the volume and output position of the voice information of the user are determined for each identification information of the user (step 58).
Then, the conversation transmission unit 207 transmits voice information (voice information if translated), its volume and output position to another user-side information processing device 20 (step 59).

以上のように、本実施形態のオフィス用VRシステムによれば、VRオフィスにおいて、実際にオフィスにいるように、他のユーザと会話をすることが可能となる。また、打ち合わせなどを相手の姿や表情を見ながらできるため、自宅にいても他のユーザとのコミュニケーション不足を感じることがないようにすることができる。
また、実際には海外などの遠隔地にいるユーザとも、その場にいるように会話をすることが可能になる。
さらに、VRオフィスにおいて、外国語を話しているユーザがいても、自分には例えば日本語で話しかけているようにすることが可能となる。
As described above, according to the VR system for offices of the present embodiment, it is possible to have a conversation with other users in the VR office as if they were actually in the office. In addition, since meetings can be held while looking at the other person's appearance and facial expression, it is possible to prevent feeling lack of communication with other users even at home.
In addition, it is possible to have a conversation with a user who is actually in a remote place such as overseas as if he / she is there.
Furthermore, even if there is a user who speaks a foreign language in the VR office, it is possible to make himself / herself speak in Japanese, for example.

[第六実施形態]
次に、本発明の第六実施形態について、図14~図16を参照して説明する。図14は、本実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置の構成を示すブロック図であり、図15は、同システムにおけるVR処理装置の構成を示すブロック図である。図16は、同システムにおけるVR処理装置とユーザ側情報処理装置の処理手順を示すフローチャートである。
[Sixth Embodiment]
Next, the sixth embodiment of the present invention will be described with reference to FIGS. 14 to 16. FIG. 14 is a block diagram showing the configuration of the user-side information processing device in the office VR system of the present embodiment, and FIG. 15 is a block diagram showing the configuration of the VR processing device in the system. FIG. 16 is a flowchart showing a processing procedure of the VR processing device and the user-side information processing device in the system.

本実施形態のオフィス用VRシステムは、第一実施形態の構成に加えて、様々な部屋を表示可能にすると共に、ユーザの権限情報にもとづき各部屋の使用可否を判定し、またユーザの作業状況を管理可能にする構成を有している。その他の点については、第一実施形態と同様の構成とすることができる。
すなわち、本実施形態のオフィス用VRシステムにおけるユーザ側情報処理装置20bは、図14に示すように、部屋表示部27を備えている。また、図15に示すように、VR処理装置200cは、権限判定及び状況記録部209を備えており、オフィス側記憶装置100aは、ユーザ状況記憶部103を備えている。また、本実施形態におけるユーザ記憶部101は、ユーザの識別情報ごとに、ユーザの権限情報を記憶する。
In addition to the configuration of the first embodiment, the office VR system of the present embodiment makes it possible to display various rooms, determines whether or not each room can be used based on the user's authority information, and also determines the user's work status. Has a structure that makes it manageable. Other points can be the same as that of the first embodiment.
That is, the user-side information processing device 20b in the office VR system of the present embodiment includes a room display unit 27 as shown in FIG. Further, as shown in FIG. 15, the VR processing device 200c includes an authority determination and status recording unit 209, and the office side storage device 100a includes a user status storage unit 103. Further, the user storage unit 101 in the present embodiment stores the user's authority information for each user's identification information.

部屋表示部27は、当該ユーザ側情報処理装置20bを使用している当該ユーザの位置情報(以下、当該ユーザ位置情報と称する場合がある。)をVR合成処理部22から入力し、この位置情報に対応する位置に配置されている部屋が存在する場合、当該部屋の三次元画像を画像記憶部21から取得し、これを表示装置32に表示させる。このとき、部屋表示部27は、その部屋の扉が閉まっている画像を表示させることができる。
また、当該ユーザ位置情報と部屋の識別情報は、部屋表示部27(又はVR合成処理部22)からVR処理装置200cへ送信されて、VR情報作成部203に入力され、対応するユーザの識別情報と共に、権限判定及び状況記録部209に出力される。
The room display unit 27 inputs the position information of the user using the information processing device 20b on the user side (hereinafter, may be referred to as the user position information) from the VR synthesis processing unit 22, and this position information. If there is a room arranged at a position corresponding to, a three-dimensional image of the room is acquired from the image storage unit 21 and displayed on the display device 32. At this time, the room display unit 27 can display an image in which the door of the room is closed.
Further, the user position information and the room identification information are transmitted from the room display unit 27 (or the VR synthesis processing unit 22) to the VR processing device 200c, input to the VR information creation unit 203, and the corresponding user identification information. At the same time, it is output to the authority determination and status recording unit 209.

権限判定及び状況記録部209は、VR情報作成部203から、ユーザの識別情報、ユーザ位置情報、及び部屋の識別情報を入力すると、ユーザの識別情報にもとづきユーザ記憶部101からユーザの権限情報を取得して、ユーザの権限情報と部屋の識別情報にもとづきユーザの入室可否を判定する。このとき、部屋の識別情報ごとに入室可能とするユーザの権限情報を記憶する入室権限記憶部(図示していない)をVR処理装置200cに備え、権限判定及び状況記録部209によりアクセスさせて判定させる構成としても良い。 When the authority determination and status recording unit 209 inputs the user identification information, the user location information, and the room identification information from the VR information creation unit 203, the user authority information is input from the user storage unit 101 based on the user identification information. It is acquired, and it is determined whether or not the user can enter the room based on the user's authority information and the room identification information. At this time, the VR processing device 200c is provided with an entry authority storage unit (not shown) that stores the authority information of the user who can enter the room for each room identification information, and is accessed by the authority determination and status recording unit 209 for determination. It may be configured to make it.

権限判定及び状況記録部209は、入室可否の判定結果をユーザ側情報処理装置20bに送信する。
そして、ユーザ側情報処理装置20bの部屋表示部27は、判定結果が入室可能である場合、部屋の扉が閉じた状態から開いた状態に移行する画像を表示装置32に表示させることができる。これにより、ユーザは、その部屋の中に移動することが可能となる。そして、VR合成処理部22(又は部屋表示部27)は、その部屋の中の三次元画像を画像記憶部21から取得して、表示装置32に表示させる。
The authority determination and status recording unit 209 transmits the determination result of admission to the room to the user-side information processing apparatus 20b.
Then, the room display unit 27 of the user-side information processing device 20b can display the image that shifts from the closed state to the open state of the room door on the display device 32 when the determination result is possible to enter the room. This allows the user to move into the room. Then, the VR synthesis processing unit 22 (or the room display unit 27) acquires the three-dimensional image in the room from the image storage unit 21 and displays it on the display device 32.

また、VR合成処理部22(又は部屋表示部27)は、他のユーザの位置情報がその部屋の中に存在していることを示すか否かを判定して、存在している場合、画像記憶部21から当該ユーザの三次元画像を取得して、当該他のユーザを部屋の中に表示させる。
一方、判定結果が入室不可である場合、部屋表示部27は、その旨を表示装置32に表示させるか、又は音声出力装置33によりアナウンスさせる。
Further, the VR synthesis processing unit 22 (or the room display unit 27) determines whether or not the position information of another user indicates that it exists in the room, and if it exists, the image. A three-dimensional image of the user is acquired from the storage unit 21, and the other user is displayed in the room.
On the other hand, when the determination result is that the room cannot be entered, the room display unit 27 displays the fact on the display device 32 or announces it by the voice output device 33.

また、権限判定及び状況記録部209に、ユーザ側情報処理装置20bに対してユーザの顔画像を撮影して送信する指示情報を送信させ、生体情報取得部23によりユーザの顔画像を取得させてVR処理装置200cへ送信させ、生体認証部201によりユーザの顔認証を実施させて、認証が成功した場合にのみ、上述の入室可否の判定を行う構成としても良い。 Further, the authority determination and status recording unit 209 is made to transmit the instruction information for photographing and transmitting the user's face image to the user-side information processing device 20b, and the biometric information acquisition unit 23 is made to acquire the user's face image. It may be configured to transmit to the VR processing device 200c, perform face authentication of the user by the biometric authentication unit 201, and determine whether or not to enter the room only when the authentication is successful.

さらに、権限判定及び状況記録部209は、ユーザ位置情報と部屋の識別情報にもとづいて、ユーザの作業状況をユーザ状況記憶部103に記録することができる。
具体的には、ユーザ状況記憶部103は、ユーザの識別情報ごとに、ユーザの作業状況の種類、位置情報(又は部屋の識別情報)、時刻情報等を記憶する。
ユーザの作業状況の種類としては、例えば以下を挙げることができる。
(1)自分の机に着席している
(2)会議室に出向いて、会議に参加している
(3)その他の執務室(社長室、各部署の部屋等)で着席又は立ち話をしている
(4)執務室間の通路を歩いている
(5)休憩室で着席している
(6)エレベータに搭乗している
(7)入口で認証をしている
(8)社外に外出している
(9)サーバルームでサーバのメンテナンスをしている
(10)受付で顧客の対応をしている
Further, the authority determination and status recording unit 209 can record the user's work status in the user status storage unit 103 based on the user position information and the room identification information.
Specifically, the user status storage unit 103 stores the type of the user's work status, location information (or room identification information), time information, and the like for each user identification information.
Examples of the type of work status of the user include the following.
(1) I am seated at my desk (2) I go to the meeting room and participate in the meeting (3) I sit down or talk in other offices (president's room, room of each department, etc.) (4) Walking in the aisle between the offices (5) Seated in the break room (6) Boarding the elevator (7) Authenticating at the entrance (8) Going out (9) Server maintenance in the server room (10) Customer support at the reception

このように、権限判定及び状況記録部209がユーザの作業状況をユーザ状況記憶部103に記録することによって、各ユーザが、どのような仕事をどのくらいの時間をかけて行っているのかを自動的に記録して管理することが可能となる。 In this way, the authority determination and status recording unit 209 records the user's work status in the user status storage unit 103, so that what kind of work each user is doing and how long it takes is automatically recorded. It is possible to record and manage it.

さらに、部屋表示部27(又はVR合成処理部22)により表示される部屋の三次元画像としては、実際に存在するオフィス内の部屋の画像だけでなく、例えば草原や森林や海辺の空間といった、実際には実現が難しいが、そのような空間で仕事ができると精神的も安らぐような環境の画像とすることも可能である。
また、VR合成処理部22により会議室の三次元画像を表示させる場合、当該会議室において、ユーザごとに、そのユーザの前にそれぞれが使用するコンピュータ画面を表示させたり、資料を映し出すスクリーンを空中に浮かべて表示させたりすることなども可能である。
これらの場合、画像記憶部21に上記環境の三次元画像を部屋の識別番号ごとに記憶させ、スクリーンなどを設備品の識別番号ごとに記憶させておき、VR合成処理部22によりこれらの画像を取得させて表示させることができる。
Further, the three-dimensional image of the room displayed by the room display unit 27 (or the VR synthesis processing unit 22) is not only an image of a room in an office that actually exists, but also, for example, a grassland, a forest, or a seaside space. In reality, it is difficult to realize, but it is possible to create an image of an environment that makes you feel at ease when you can work in such a space.
Further, when the VR synthesis processing unit 22 displays a three-dimensional image of a conference room, in the conference room, for each user, the computer screen used by each user is displayed in front of the user, or the screen on which the material is displayed is displayed in the air. It is also possible to float it on the screen and display it.
In these cases, the image storage unit 21 stores the three-dimensional image of the above environment for each room identification number, the screen or the like is stored for each equipment identification number, and the VR synthesis processing unit 22 stores these images. It can be acquired and displayed.

次に、本実施形態のオフィス用VRシステムにおけるVR処理装置200cとユーザ側情報処理装置20bの処理手順について、図16を参照して説明する。
まず、ユーザ側情報処理装置20bにおける部屋表示部27は、当該ユーザ側情報処理装置20bを使用している当該ユーザの位置情報をVR合成処理部22から入力し、この位置情報に対応する位置に配置されている部屋が存在する場合、当該部屋の三次元画像を画像記憶部21から取得し、これを表示装置32に表示させる(ステップ60)。
また、部屋表示部27は、当該ユーザ位置情報と部屋の識別情報を、VR処理装置200cへ送信する(ステップ61)。
Next, the processing procedure of the VR processing device 200c and the user-side information processing device 20b in the office VR system of the present embodiment will be described with reference to FIG.
First, the room display unit 27 in the user-side information processing device 20b inputs the position information of the user who is using the user-side information processing device 20b from the VR synthesis processing unit 22, and at the position corresponding to this position information. When the arranged room exists, a three-dimensional image of the room is acquired from the image storage unit 21 and displayed on the display device 32 (step 60).
Further, the room display unit 27 transmits the user position information and the room identification information to the VR processing device 200c (step 61).

VR処理装置200cにおける権限判定及び状況記録部209は、当該ユーザの、ユーザの権限情報をユーザ記憶部101から取得する(ステップ62)。
そして、権限判定及び状況記録部209は、ユーザの権限情報と部屋の識別情報にもとづきユーザの入室可否を判定し、その判定結果をユーザ側情報処理装置20bに送信する(ステップ63)。
また、限判定及び状況記録部209は、ユーザ位置情報と部屋の識別情報にもとづいて、ユーザの作業状況をユーザ状況記憶部103に記録する(ステップ64)。
The authority determination and status recording unit 209 in the VR processing device 200c acquires the user's authority information of the user from the user storage unit 101 (step 62).
Then, the authority determination and status recording unit 209 determines whether or not the user can enter the room based on the user's authority information and the room identification information, and transmits the determination result to the user-side information processing apparatus 20b (step 63).
Further, the limit determination and status recording unit 209 records the user's work status in the user status storage unit 103 based on the user position information and the room identification information (step 64).

ユーザ側情報処理装置20bにおける部屋表示部27は、判定結果が入室可能である場合、部屋の扉が閉じた状態から開いた状態に移行する画像を表示装置32に表示させ、これによって、ユーザをその部屋の中に移動可能にする(ステップ65)。
そして、部屋表示部27(又はVR合成処理部22)は、ユーザの位置情報を入力して(ステップ66)、他のユーザの位置情報がその部屋の中に存在しているか否かを判定して、存在している場合、画像記憶部21から当該ユーザの三次元画像を取得して、当該他のユーザを部屋の中に表示させることができる(ステップ67)。
When the determination result is accessible, the room display unit 27 in the user-side information processing device 20b causes the display device 32 to display an image in which the door of the room changes from the closed state to the open state, whereby the user is displayed. Make it movable within the room (step 65).
Then, the room display unit 27 (or the VR synthesis processing unit 22) inputs the user's position information (step 66), and determines whether or not the position information of another user exists in the room. If it exists, a three-dimensional image of the user can be acquired from the image storage unit 21 and the other user can be displayed in the room (step 67).

以上のように、本実施形態のオフィス用VRシステムによれば、VRオフィスにおいて、様々な部屋を表示させることができ、ユーザの権限に応じて、各部屋への入室可否の判定を行うことができる。このため、情報漏洩防止や情報統制を適切に実施することが可能となる。
また、近年、働き方改革において、生産性の向上が望まれているところ、本実施形態のオフィス用VRシステムによれば、社員がどのような仕事をどのくらいの時間をかけて行っているのかを自動的に記録・管理することができる。例えば、プログラミングを担当する社員が会議に参加している場合は、プログラムの作業をしていないことをユーザ状況記憶部103に記憶でき、プログラムの作業時間の記録を停止できる。そして、会議が終って、再び自分の机に戻れば、ユーザ状況記憶部103に対してプログラムの作業時間の記録を再開することが可能となる。これによって、社員の生産性の評価をより適切に行うことが可能となる。
As described above, according to the VR system for offices of the present embodiment, various rooms can be displayed in the VR office, and it is possible to determine whether or not to enter each room according to the user's authority. can. Therefore, it is possible to appropriately implement information leakage prevention and information control.
In recent years, improvement in productivity has been desired in work style reforms, and according to the VR system for offices of this embodiment, what kind of work and how long employees are doing is It can be recorded and managed automatically. For example, when an employee in charge of programming is attending a meeting, the user status storage unit 103 can store that he / she is not working on the program, and can stop recording the work time of the program. Then, when the meeting is over and the user returns to his / her desk again, the recording of the work time of the program can be resumed in the user status storage unit 103. This makes it possible to more appropriately evaluate the productivity of employees.

上記の各実施形態のオフィス用VRシステムは、本発明のオフィス用VRプログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPU/GPUは、オフィス用VRプログラムにもとづいてコンピュータの各構成要素に指令を送り、オフィス用VRシステムにおける各処理装置の動作に必要となる所定の処理、例えば、生体認証処理、アクセス記録処理、VR情報作成処理、VR合成処理、生体情報取得処理、画面調整処理、表情画像作成処理等を行わせる。このように、本発明のオフィス用VRシステムにおける各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The office VR system of each of the above embodiments can be realized by using a computer controlled by the office VR program of the present invention. The CPU / GPU of the computer sends a command to each component of the computer based on the office VR program, and predetermined processing required for the operation of each processing device in the office VR system, for example, biometric authentication processing and access recording. Processing, VR information creation processing, VR synthesis processing, biological information acquisition processing, screen adjustment processing, facial expression image creation processing, and the like are performed. As described above, each process and operation in the office VR system of the present invention can be realized by concrete means in which the program and the computer cooperate.

プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in a recording medium such as a ROM or RAM in advance, and the program is read and executed by the computer from the recording medium mounted on the computer. However, the program can also be read by the computer via a communication line, for example.
Further, the recording medium for storing the program can be configured by, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other recording means that can be read by any computer.

以上説明したように、本発明の実施形態に係るオフィス用VRシステム、及びオフィス用VRプログラムによれば、ユーザがVRオフィスを使用して在宅勤務を行うことにより、実際に出勤をしているように感じることができ、また他の社員とのコミュニケーションが希薄になることを防止することができる。
また、VRオフィスの一部にシンクライアント化されたコンピュータ画面を表示でき、他のユーザのコンピュータ画面をその位置に応じて調整して表示したり、ユーザの権限情報に応じて表示させないようにすることができる。
さらに、VRオフィスにおいて、ユーザの現在の顔画像を表示するのではなく、その時の感情に応じた表情を持つ顔画像を作成して表示することができ、さらにその画像に感情の強調表示を行うこともできる。
As described above, according to the office VR system and the office VR program according to the embodiment of the present invention, it seems that the user actually goes to work by working from home using the VR office. It is possible to prevent communication with other employees from becoming weak.
In addition, a thin client computer screen can be displayed in a part of the VR office, and the computer screen of another user can be adjusted and displayed according to its position, or not displayed according to the user's authority information. be able to.
Further, in the VR office, instead of displaying the user's current face image, a face image having a facial expression according to the emotion at that time can be created and displayed, and the emotion is highlighted on the image. You can also do it.

また、VRオフィスに行くためのエレベータを表示して、仮想的にエレベータに乗って自分の部屋のある階に行くようにでき、エレベータ内で他のユーザとのコミュニケーションを図ることができ、就業時間外にはエレベータを動作しないようにすることで、時間外労働を防止することができる。
さらに、VRオフィスにおいては、実際にオフィスにいるように、他のユーザと会話をすることができ、外国語を話しているユーザがいても、自国語で音声出力させることができる。
また、VRオフィスに様々な部屋を表示させ、ユーザの権限に応じて各部屋への入室可否の判定を行うことができ、社員がどのような仕事をどのくらいの時間をかけて行っているのかを自動的に記録・管理することも可能である。
In addition, you can display the elevator to go to the VR office so that you can virtually get on the elevator and go to the floor where your room is located, you can communicate with other users in the elevator, and you can work hours. By preventing the elevator from operating outside, it is possible to prevent overtime work.
Further, in the VR office, it is possible to have a conversation with another user as if he / she is actually in the office, and even if there is a user who speaks a foreign language, the voice can be output in his / her own language.
In addition, various rooms can be displayed in the VR office, and it is possible to judge whether or not to enter each room according to the user's authority, and what kind of work the employee is doing and how long it takes. It is also possible to record and manage automatically.

本発明は、以上の実施形態に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、第一から第六までの各実施形態を様々に組み合わせた構成とするなど適宜変更することが可能である。
It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention.
For example, it is possible to appropriately change the configuration such that each of the first to sixth embodiments is combined in various ways.

本発明は、在宅勤務を実施している企業などにおいて、好適に利用することが可能である。 The present invention can be suitably used in a company or the like that works from home.

10 オフィス用VR装置群
100 オフィス側記憶装置
101 ユーザ記憶部
102 オフィス記憶部
200,200a,200b,200c VR処理装置
201 生体認証部(認証処理部)
202 アクセス記録部
203 VR情報作成部
204 顔感情記憶部
205 表情画像作成部
206 強調画像付加部
207 会話送信部
208 翻訳作成部
209 入室判定部
300 WEB処理装置
400 IP電話装置
500 シンクライアント処理装置
501 ユーザ側情報処理装置用仮想マシン(1)
502 ユーザ側情報処理装置用仮想マシン(2)
503 画面調整処理部(1)
504 画面調整処理部(2)
20,20a,20b(20-1,20-2) ユーザ側情報処理装置
21 画像記憶部
22 VR合成処理部
23 生体情報取得部(認証情報取得部)
24 ユーザ位置情報送信部
25 データ入出力部
26 エレベータ表示部
27 部屋表示部
31 入力装置
32 表示装置
33 音声出力装置
34 音声入力装置
35 画像入力装置
10 Office VR device group 100 Office side storage device 101 User storage unit 102 Office storage unit 200, 200a, 200b, 200c VR processing device 201 Biometric authentication unit (authentication processing unit)
202 Access recording unit 203 VR information creation unit 204 Face emotion memory unit 205 Facial expression image creation unit 206 Emphasis image addition unit 207 Conversation transmission unit 208 Translation creation unit 209 Entrance judgment unit 300 WEB processing device 400 IP telephone device 500 Thin client processing device 501 Virtual machine for user-side information processing device (1)
502 User-side information processing device virtual machine (2)
503 Screen adjustment processing unit (1)
504 Screen adjustment processing unit (2)
20, 20a, 20b (20-1, 20-2) User-side information processing device 21 Image storage unit 22 VR synthesis processing unit 23 Biometric information acquisition unit (authentication information acquisition unit)
24 User position information transmission unit 25 Data input / output unit 26 Elevator display unit 27 Room display unit 31 Input device 32 Display device 33 Voice output device 34 Voice input device 35 Image input device

Claims (11)

オフィスのVR(バーチャルリアリティ)画像をユーザ側情報処理装置に表示させ、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するためのオフィス用VRシステムであって、
オフィス側記憶装置とVR処理装置とを有するオフィス用VR装置群、及び、前記オフィス用VR装置群と通信回線を介して接続された複数の前記ユーザ側情報処理装置を備え、
前記オフィス側記憶装置が、
ユーザの認証情報、VRオフィスにおけるユーザの位置情報、及び、VRオフィスにユーザがアクセスしたことを示す情報をユーザの識別情報ごとに記憶するユーザ記憶部、並びに、
VRオフィスにおける一又は複数の部屋の三次元画像の配置情報を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像の配置情報を設備品の識別情報ごとに記憶するオフィス記憶部を備え、
前記VR処理装置が、
前記ユーザ側情報処理装置から送信されてきた認証情報が前記ユーザ記憶部に記憶されているユーザの認証情報に一致するか否かにもとづき認証の成否を判定する認証処理部、
前記認証が成功した場合、前記ユーザがVRオフィスへアクセスしたことを示す情報を前記ユーザ記憶部に記録するアクセス記録部、及び、
前記ユーザ記憶部に記憶されているVRオフィスにおけるユーザの位置情報と前記オフィス記憶部に記憶されている前記配置情報を入力し、前記位置情報と前記配置情報を含むVR情報を作成して前記ユーザ側情報処理装置に送信するVR情報作成部とを備え、
前記ユーザ側情報処理装置が、
ユーザの三次元画像をユーザの識別情報ごとに記憶し、VRオフィスにおける一又は複数の部屋の三次元画像を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像を設備品の識別情報ごとに記憶する画像記憶部、
前記VR情報作成部から送信されてきたVR情報と、前記画像記憶部に記憶されている前記ユーザの三次元画像、前記部屋の三次元画像、及び、前記設備品の三次元画像にもとづきVR画像を合成して当該ユーザ側情報処理装置に接続された表示装置により表示させるVR合成処理部、
ユーザの認証情報を入力して前記VR処理装置へ送信する認証情報取得部、並びに、
当該ユーザ側情報処理装置を使用しているユーザのVRオフィスにおける位置情報を取得して、当該ユーザの位置情報を前記VR処理装置へ送信するユーザ位置情報送信部を備えた
ことを特徴とするオフィス用VRシステム。
It is an office VR system for displaying a VR (Virtual Reality) image of an office on a user-side information processing device and providing a VR office capable of performing business outside the office to the user.
The office VR device group having the office side storage device and the VR processing device, and a plurality of the user side information processing devices connected to the office VR device group via a communication line are provided.
The office storage device
A user storage unit that stores user authentication information, user location information in the VR office, and information indicating that the user has accessed the VR office for each user identification information, and
An office that stores the layout information of three-dimensional images of one or more rooms in a VR office for each room identification information, and stores the layout information of three-dimensional images of multiple equipment in a VR office for each equipment identification information. Equipped with a storage unit
The VR processing device
An authentication processing unit that determines the success or failure of authentication based on whether or not the authentication information transmitted from the user-side information processing device matches the user's authentication information stored in the user storage unit.
If the authentication is successful, an access recording unit that records information indicating that the user has accessed the VR office in the user storage unit, and an access recording unit, and
The user's position information in the VR office stored in the user storage unit and the arrangement information stored in the office storage unit are input, and the VR information including the location information and the arrangement information is created and the user. It is equipped with a VR information creation unit that sends information to the information processing device on the side.
The user-side information processing device
The user's three-dimensional image is stored for each user's identification information, the three-dimensional image of one or more rooms in the VR office is stored for each room identification information, and the three-dimensional image of multiple equipment in the VR office is installed. Image storage unit that stores each item identification information,
A VR image based on the VR information transmitted from the VR information creation unit, the user's three-dimensional image stored in the image storage unit, the room three-dimensional image, and the equipment three-dimensional image. VR synthesis processing unit, which synthesizes and displays on the display device connected to the information processing device on the user side.
The authentication information acquisition unit that inputs the user's authentication information and sends it to the VR processing device, and
The office is provided with a user position information transmission unit that acquires the position information of the user using the user-side information processing device in the VR office and transmits the position information of the user to the VR processing device. VR system for.
前記オフィス用VR装置群が、前記ユーザ側情報処理装置のシンクライアント化を行うためのシンクライアント処理装置を有し、
前記シンクライアント処理装置が、
前記ユーザ側情報処理装置ごとに、ユーザ側情報処理装置用仮想マシンを備え、
前記ユーザ記憶部に記憶されているユーザの位置情報、及び前記オフィス記憶部に記憶されている前記配置情報にもとづいて、前記ユーザ側情報処理装置用仮想マシンのコンピュータ画面の解像度を前記ユーザの識別情報ごとに決定して、決定した解像度に加工した前記コンピュータ画面を前記ユーザの識別情報ごとに対応する前記ユーザ側情報処理装置へ送信する画面調整処理部を備えた
ことを特徴とする請求項1記載のオフィス用VRシステム。
The office VR device group has a thin client processing device for making the user-side information processing device a thin client.
The thin client processing device
Each user-side information processing device is provided with a virtual machine for the user-side information processing device.
The resolution of the computer screen of the virtual machine for the information processing apparatus on the user side is identified by the user based on the user's position information stored in the user storage unit and the arrangement information stored in the office storage unit. Claim 1 is provided with a screen adjustment processing unit that determines each piece of information and processes the computer screen to a determined resolution to send the computer screen to the corresponding user-side information processing apparatus for each identification information of the user. The listed office VR system.
前記ユーザ記憶部が、ユーザの識別情報ごとに、ユーザの顔画像を記憶し、
前記VR処理装置が、
様々な表情の顔画像と、感情及び感情の程度を表す数値とを対応付けて記憶する顔感情記憶部、並びに、
前記ユーザ側情報処理装置から送信されてきたユーザの識別情報と顔画像にもとづいて、前記顔感情記憶部から前記顔画像に最も近い画像と、これに対応付けられた感情及び感情の大きさを示す数値を取得すると共に、前記ユーザ記憶部に記憶されている当該ユーザの顔画像を取得して前記感情及び感情の大きさを示す数値にもとづき加工して表情画像を作成し、前記VR情報に含める表情画像作成部を備え、
前記VR合成処理部が、VR情報に含まれる前記表情画像を用いて、前記画像記憶部にから取得した前記ユーザの三次元画像を加工する
ことを特徴とする請求項1又は2記載のオフィス用VRシステム。
The user storage unit stores a user's face image for each user's identification information.
The VR processing device
A facial emotion memory unit that stores facial images of various facial expressions in association with emotions and numerical values indicating the degree of emotions, and
Based on the user's identification information and the face image transmitted from the user-side information processing device, the image closest to the face image from the face emotion storage unit and the emotions and the magnitudes of the emotions associated with the image are determined. The indicated numerical value is acquired, and the facial image of the user stored in the user storage unit is acquired and processed based on the emotion and the numerical value indicating the magnitude of the emotion to create a facial expression image, which is used as the VR information. Equipped with an emotion image creation unit to include
The office use according to claim 1 or 2, wherein the VR synthesis processing unit processes a three-dimensional image of the user acquired from the image storage unit using the facial expression image included in the VR information. VR system.
前記VR処理装置が、
前記感情及び前記感情の大きさを示す数値にもとづいて、当該ユーザの三次元顔画像を強調するための強調表示画像を取得して、前記強調表示画像を付加した表情画像を前記表情画像作成部により作成させる強調画像付加部を備えた
ことを特徴とする請求項3記載のオフィス用VRシステム。
The VR processing device
Based on the emotion and the numerical value indicating the magnitude of the emotion, a highlighted image for emphasizing the three-dimensional face image of the user is acquired, and the facial expression image to which the highlighted image is added is obtained by the facial expression image creating unit. The VR system for an office according to claim 3, further comprising an enhanced image addition portion to be created by the above.
前記画像記憶部が、VRオフィスにおけるエレベータの三次元画像を記憶し、
前記ユーザ側情報処理装置が、
前記画像記憶部から前記エレベータの三次元画像を取得して、当該ユーザ側情報処理装置に接続された表示装置により表示させると共に、現在の時刻情報を取得して、当該時刻情報が就業時間内である場合に、前記エレベータの三次元画像の扉を開く画像を、当該ユーザ側情報処理装置に接続された表示装置により表示させるエレベータ表示部を備えた
ことを特徴とする請求項1~4のいずれかに記載のオフィス用VRシステム。
The image storage unit stores a three-dimensional image of the elevator in the VR office.
The user-side information processing device
A three-dimensional image of the elevator is acquired from the image storage unit and displayed by a display device connected to the information processing device on the user side, and current time information is acquired so that the time information is within working hours. In any case, any of claims 1 to 4, further comprising an elevator display unit for displaying an image of opening the door of the three-dimensional image of the elevator by a display device connected to the user-side information processing device. VR system for office described in Crab.
前記VR処理装置が、
前記ユーザ側情報処理装置から送信されてきた音声情報を入力し、前記ユーザ記憶部に記憶されている、当該ユーザ側情報処理装置を使用する当該ユーザの位置情報と、他のユーザ側情報処理装置を使用する他のユーザの位置情報とにもとづいて、ユーザの識別情報ごとに、当該ユーザの音声情報の音量と出力位置を決定して、前記他のユーザ側情報処理装置へ送信する会話送信部を備えた
ことを特徴とする請求項1~5のいずれかに記載のオフィス用VRシステム。
The VR processing device
The voice information transmitted from the user-side information processing device is input, and the position information of the user who uses the user-side information processing device stored in the user storage unit and the other user-side information processing device. A conversation transmission unit that determines the volume and output position of the voice information of the user for each user's identification information based on the position information of another user who uses the above, and transmits the information to the other user-side information processing device. The office VR system according to any one of claims 1 to 5, wherein the VR system is provided with.
前記ユーザ記憶部が、ユーザの識別情報ごとに、言語の種類を記憶し、
前記VR処理装置が、
前記会話送信部から音声情報を入力して当該音声の言語の種類を判定し、前記音声情報をテキスト変換して、ユーザの識別情報ごとに対応する言語の種類に機械翻訳し、得られた翻訳文を音声変換して前記会話送信部へ出力する翻訳送信部を備えた
ことを特徴とする請求項6記載のオフィス用VRシステム。
The user storage unit stores the type of language for each user identification information.
The VR processing device
Voice information is input from the conversation transmission unit to determine the language type of the voice, the voice information is text-converted, and machine-translated into the corresponding language type for each user's identification information, and the obtained translation is performed. The VR system for an office according to claim 6, further comprising a translation transmission unit that converts a sentence into voice and outputs the text to the conversation transmission unit.
前記ユーザ記憶部が、ユーザの識別情報ごとに、ユーザの権限情報を記憶し、
前記ユーザ側情報処理装置が、
当該ユーザ側情報処理装置を使用しているユーザの位置情報を入力して、対応する位置に配置されている部屋の三次元画像と識別情報を前記画像記憶部から取得し、当該ユーザ側情報処理装置に接続されている表示装置に前記部屋の三次元画像を表示させる部屋表示部を備え、
前記VR処理装置が、
前記ユーザ側情報処理装置から前記ユーザの位置情報と前記部屋の識別情報が送信されてくると、前記ユーザの識別情報にもとづき前記ユーザ記憶部から前記ユーザの権限情報を取得して、前記ユーザの権限情報と前記部屋の識別情報にもとづき部屋への入室可否を判定して、この判定結果を前記ユーザ側情報処理装置に送信する権限判定部を備え、
前記部屋表示部が、
前記判定結果が可である場合に、前記部屋の三次元画像の扉を開く画像を、当該ユーザ側情報処理装置に接続された表示装置により表示させる
ことを特徴とする請求項1~7のいずれかに記載のオフィス用VRシステム。
The user storage unit stores the user's authority information for each user's identification information.
The user-side information processing device
The position information of the user who is using the information processing device on the user side is input, the three-dimensional image and the identification information of the room arranged at the corresponding position are acquired from the image storage unit, and the information processing on the user side is performed. The display device connected to the device is provided with a room display unit for displaying a three-dimensional image of the room.
The VR processing device
When the user's position information and the room identification information are transmitted from the user-side information processing device, the user's authority information is acquired from the user storage unit based on the user's identification information, and the user's authority information is acquired. It is provided with an authority determination unit that determines whether or not to enter the room based on the authority information and the identification information of the room and transmits the determination result to the information processing device on the user side.
The room display unit
Any of claims 1 to 7, wherein when the determination result is acceptable, the image that opens the door of the three-dimensional image of the room is displayed by the display device connected to the information processing device on the user side. VR system for office described in the information processing.
オフィス側記憶装置とVR(バーチャルリアリティ)処理装置とを有するオフィス用VR装置群、及び、前記オフィス用VR装置群と通信回線を介して接続された複数のユーザ側情報処理装置を用いて、オフィスのVR画像を前記ユーザ側情報処理装置に表示させ、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するためのオフィス用VRプログラムであって、
前記オフィス側記憶装置を、
ユーザの認証情報、VRオフィスにおけるユーザの位置情報、及び、VRオフィスにユーザがアクセスしたことを示す情報をユーザの識別情報ごとに記憶するユーザ記憶部、並びに、
VRオフィスにおける一又は複数の部屋の三次元画像の配置情報を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像の配置情報を設備品の識別情報ごとに記憶するオフィス記憶部として機能させ、
前記VR処理装置を、
前記ユーザ側情報処理装置から送信されてきた認証情報が前記ユーザ記憶部に記憶されているユーザの認証情報に一致するか否かにもとづき認証の成否を判定する認証処理部、
前記認証が成功した場合、前記ユーザがVRオフィスへアクセスしたことを示す情報を前記ユーザ記憶部に記録するアクセス記録部、及び、
前記ユーザ記憶部に記憶されているVRオフィスにおけるユーザの位置情報と前記オフィス記憶部に記憶されている前記配置情報を入力し、前記位置情報と前記配置情報を含むVR情報を作成して前記ユーザ側情報処理装置に送信するVR情報作成部として機能させ、
前記ユーザ側情報処理装置を、
ユーザの三次元画像をユーザの識別情報ごとに記憶し、VRオフィスにおける一又は複数の部屋の三次元画像を部屋の識別情報ごとに記憶し、VRオフィスにおける複数の設備品の三次元画像を設備品の識別情報ごとに記憶する画像記憶部、
前記VR情報作成部から送信されてきたVR情報と、前記画像記憶部に記憶されている前記ユーザの三次元画像、前記部屋の三次元画像、及び、前記設備品の三次元画像にもとづきVR画像を合成して当該ユーザ側情報処理装置に接続された表示装置により表示させるVR合成処理部、
ユーザの認証情報を入力して前記VR処理装置へ送信する認証情報取得部、並びに、
当該ユーザ側情報処理装置を使用しているユーザのVRオフィスにおける位置情報を取得して、当該ユーザの位置情報を前記VR処理装置へ送信するユーザ位置情報送信部として機能させる
ことを特徴とするオフィス用VRプログラム。
An office is used by using an office VR device group having an office side storage device and a VR (virtual reality) processing device, and a plurality of user side information processing devices connected to the office VR device group via a communication line. It is an office VR program for displaying a VR image of the above on the user side information processing device and providing a VR office capable of performing business outside the office to the user.
The office side storage device
A user storage unit that stores user authentication information, user location information in the VR office, and information indicating that the user has accessed the VR office for each user identification information, and
An office that stores the layout information of three-dimensional images of one or more rooms in a VR office for each room identification information, and stores the layout information of three-dimensional images of multiple equipment in a VR office for each equipment identification information. To function as a storage unit,
The VR processing device
An authentication processing unit that determines the success or failure of authentication based on whether or not the authentication information transmitted from the user-side information processing device matches the user's authentication information stored in the user storage unit.
If the authentication is successful, an access recording unit that records information indicating that the user has accessed the VR office in the user storage unit, and an access recording unit, and
The user's position information in the VR office stored in the user storage unit and the arrangement information stored in the office storage unit are input, and the VR information including the location information and the arrangement information is created and the user. It functions as a VR information creation unit to be transmitted to the side information processing device.
The user-side information processing device
The user's three-dimensional image is stored for each user's identification information, the three-dimensional image of one or more rooms in the VR office is stored for each room identification information, and the three-dimensional image of multiple equipment in the VR office is installed. Image storage unit that stores each item identification information,
A VR image based on the VR information transmitted from the VR information creation unit, the user's three-dimensional image stored in the image storage unit, the room three-dimensional image, and the equipment three-dimensional image. VR synthesis processing unit, which synthesizes and displays on the display device connected to the information processing device on the user side.
The authentication information acquisition unit that inputs the user's authentication information and sends it to the VR processing device, and
An office characterized by acquiring position information in a VR office of a user using the user-side information processing device and functioning as a user position information transmission unit that transmits the position information of the user to the VR processing device. VR program for.
前記ユーザ側情報処理装置のシンクライアント化を行うためのシンクライアント処理装置を有する前記オフィス用VR装置群を用いて、ユーザに対してオフィスの外部において業務を行うことが可能なVRオフィスを提供するための請求項9記載のオフィス用VRプログラムであって、
前記シンクライアント処理装置を、
前記ユーザ側情報処理装置ごとに、ユーザ側情報処理装置用仮想マシンとして機能させ、
前記ユーザ記憶部に記憶されているユーザの位置情報、及び前記オフィス記憶部に記憶されている前記配置情報にもとづいて、前記ユーザ側情報処理装置用仮想マシンのコンピュータ画面の解像度を前記ユーザの識別情報ごとに決定して、決定した解像度に加工した前記コンピュータ画面を前記ユーザの識別情報ごとに対応する前記ユーザ側情報処理装置へ送信する画面調整処理部として機能させる
ことを特徴とするオフィス用VRプログラム。
Using the office VR device group having a thin client processing device for converting the user-side information processing device into a thin client, a VR office capable of performing business outside the office is provided to the user. The office VR program according to claim 9 for the purpose.
The thin client processing device
Each user-side information processing device is made to function as a virtual machine for the user-side information processing device.
The resolution of the computer screen of the virtual machine for the information processing apparatus on the user side is identified by the user based on the user's position information stored in the user storage unit and the arrangement information stored in the office storage unit. An office VR characterized by functioning as a screen adjustment processing unit that determines each piece of information and processes the computer screen to a determined resolution and transmits the computer screen to the corresponding user-side information processing device for each identification information of the user. program.
前記ユーザ記憶部に、ユーザの識別情報ごとに、ユーザの顔画像を記憶させ、
前記VR処理装置を、
様々な表情の顔画像と、感情及び感情の程度を表す数値とを対応付けて記憶する顔感情記憶部、並びに、
前記ユーザ側情報処理装置から送信されてきたユーザの識別情報と顔画像にもとづいて、前記顔感情記憶部から前記顔画像に最も近い画像と、これに対応付けられた感情及び感情の大きさを示す数値を取得すると共に、前記ユーザ記憶部に記憶されている当該ユーザの顔画像を取得して前記感情及び感情の大きさを示す数値にもとづき加工して表情画像を作成し、前記VR情報に含める表情画像作成部として機能させ、
前記VR合成処理部に、VR情報に含まれる前記表情画像を用いて、前記画像記憶部にから取得させた前記ユーザの三次元画像を加工させる
ことを特徴とする請求項9又は10記載のオフィス用VRプログラム。
The user storage unit stores a user's face image for each user's identification information.
The VR processing device
A facial emotion memory unit that stores facial images of various facial expressions in association with emotions and numerical values indicating the degree of emotions, and
Based on the user's identification information and the face image transmitted from the user-side information processing device, the image closest to the face image from the face emotion storage unit and the emotions and the magnitudes of the emotions associated with the image are determined. The indicated numerical value is acquired, and the facial image of the user stored in the user storage unit is acquired and processed based on the emotion and the numerical value indicating the magnitude of the emotion to create a facial expression image, which is used as the VR information. Functions as an emotion image creation unit to include
The office according to claim 9 or 10, wherein the VR synthesis processing unit processes the three-dimensional image of the user acquired from the image storage unit by using the facial expression image included in the VR information. VR program for.
JP2018008457A 2018-01-22 2018-01-22 Office virtual reality system and office virtual reality program Active JP7073116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018008457A JP7073116B2 (en) 2018-01-22 2018-01-22 Office virtual reality system and office virtual reality program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018008457A JP7073116B2 (en) 2018-01-22 2018-01-22 Office virtual reality system and office virtual reality program

Publications (2)

Publication Number Publication Date
JP2019128683A JP2019128683A (en) 2019-08-01
JP7073116B2 true JP7073116B2 (en) 2022-05-23

Family

ID=67473090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018008457A Active JP7073116B2 (en) 2018-01-22 2018-01-22 Office virtual reality system and office virtual reality program

Country Status (1)

Country Link
JP (1) JP7073116B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114616533A (en) 2019-10-30 2022-06-10 艾梅崔克斯持株公司株式会社 Eye alternating current detection device
IL293438A (en) 2020-05-19 2022-07-01 Ovice Inc Information processing apparatus, information processing method, and program
WO2023032170A1 (en) * 2021-09-03 2023-03-09 日本電気株式会社 Information processing device, information processing method, and computer-readable storage medium
WO2023032172A1 (en) * 2021-09-03 2023-03-09 日本電気株式会社 Virtual space providing device, virtual space providing method, and computer-readable storage medium
WO2023032173A1 (en) * 2021-09-03 2023-03-09 日本電気株式会社 Virtual space provision device, virtual space provision method, and computer-readable storage medium
JP7158781B1 (en) 2021-11-29 2022-10-24 クラスター株式会社 Terminal device, server, virtual reality space providing system, program, and virtual reality space providing method
JP2024028023A (en) * 2022-08-19 2024-03-01 ソニーセミコンダクタソリューションズ株式会社 Facial expression processing device, facial expression processing method, and facial expression processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142850A (en) 1999-11-16 2001-05-25 Canon Inc System and method for supporting break, storage medium, terminal equipment and server device
JP2014044630A (en) 2012-08-28 2014-03-13 Oyo Denshi:Kk Information system
US20170206694A1 (en) 2015-07-30 2017-07-20 Intel Corporation Emotion augmented avatar animation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108509B2 (en) * 2001-04-30 2012-01-31 Sony Computer Entertainment America Llc Altering network transmitted content data based upon user specified characteristics
JP2008257363A (en) * 2007-04-02 2008-10-23 Toyota Motor Corp Operation support device
WO2017127620A1 (en) * 2016-01-20 2017-07-27 Al-Masoud Mezyad M Systems and methods for managing a talent based exchange

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142850A (en) 1999-11-16 2001-05-25 Canon Inc System and method for supporting break, storage medium, terminal equipment and server device
JP2014044630A (en) 2012-08-28 2014-03-13 Oyo Denshi:Kk Information system
US20170206694A1 (en) 2015-07-30 2017-07-20 Intel Corporation Emotion augmented avatar animation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中西 英之 et al.,FreeWalk:3次元仮想空間を用いた非形式的なコミュニケーションの支援,情報処理学会論文誌,第39巻 第5号,日本,社団法人情報処理学会,1998年05月15日,pp.1356-1364
竹内 晃一,ユビキタス社会のテレワーク特集 仮想オフィスを利用したテレワーク,OKIテクニカルレビュー,Vol.75 No.2,日本,沖電気工業株式会社,2008年10月01日,pp.8-11

Also Published As

Publication number Publication date
JP2019128683A (en) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7073116B2 (en) Office virtual reality system and office virtual reality program
WO2020204000A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
KR101732613B1 (en) Modifying an appearance of a participant during a video conference
WO2018153267A1 (en) Group video session method and network device
JP7056055B2 (en) Information processing equipment, information processing systems and programs
US9424678B1 (en) Method for teleconferencing using 3-D avatar
US11638147B2 (en) Privacy-preserving collaborative whiteboard using augmented reality
JP2012054897A (en) Conference system, information processing apparatus, and information processing method
KR102148151B1 (en) Intelligent chat based on digital communication network
CN110494850A (en) Information processing unit, information processing method and recording medium
US20200413009A1 (en) Bidirectional video communication system and kiosk terminal
US20110267421A1 (en) Method and Apparatus for Two-Way Multimedia Communications
JP2020136921A (en) Video call system and computer program
KR102412823B1 (en) System for online meeting with translation
CN113170075B (en) Information processing device, information processing method, and program
CN110784676B (en) Data processing method, terminal device and computer readable storage medium
JP6444767B2 (en) Business support device and business support program
JP6901190B1 (en) Remote dialogue system, remote dialogue method and remote dialogue program
JP2002259318A (en) Method for displaying picture of person in virtual reality space
KR20230102753A (en) Method, computer device, and computer program to translate audio of video into sign language through avatar
KR102600601B1 (en) Apparatus and method for transmitting and receiving remote reality video
US20240004968A1 (en) Audio and/or Physical Electronic Privacy System
US20230412766A1 (en) Information processing system, information processing method, and computer program
WO2023032172A1 (en) Virtual space providing device, virtual space providing method, and computer-readable storage medium
US20240119619A1 (en) Deep aperture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7073116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150