WO2023223507A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2023223507A1
WO2023223507A1 PCT/JP2022/020847 JP2022020847W WO2023223507A1 WO 2023223507 A1 WO2023223507 A1 WO 2023223507A1 JP 2022020847 W JP2022020847 W JP 2022020847W WO 2023223507 A1 WO2023223507 A1 WO 2023223507A1
Authority
WO
WIPO (PCT)
Prior art keywords
point cloud
cloud data
information
unit
data
Prior art date
Application number
PCT/JP2022/020847
Other languages
English (en)
French (fr)
Inventor
大 安藤
卓 佐野
俊一 瀬古
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/020847 priority Critical patent/WO2023223507A1/ja
Publication of WO2023223507A1 publication Critical patent/WO2023223507A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • One aspect of the present invention is applicable to a virtual space construction technology called XR (Virtual Reality (VR), Augmented Reality (AR), Mixed Reality (MR), etc.).
  • XR Virtual Reality
  • AR Augmented Reality
  • MR Mixed Reality
  • the present invention relates to an information processing device, an information processing method, and a program.
  • the virtual space is constructed, for example, on a computer server to which a plurality of people can log in, using CG (Computer Graphics) technology or the like.
  • CG Computer Graphics
  • VR Virtual Reality
  • VR is a representative technology thereof, and is applied, for example, to express a virtual world such as a scene of a quest game.
  • attempts have been made to faithfully reproduce real space in a 3D virtual space based on measurement data in real space (real world).
  • 3D point cloud data obtained by measuring real space is suitable for representing real space in virtual space. Furthermore, it is conceivable to reflect sound information in the real space in the virtual space. For example, a realistic digital twin can be created by simultaneously measuring 3D point cloud data and sound information and reflecting the sound information in a virtual space constructed using the 3D point cloud data.
  • the first possible method for reflecting sound information in a virtual space is to acoustically reproduce the collected sound information in the virtual space.
  • the person in the virtual space is hard of hearing or if a problem occurs with the equipment that reproduces the sound, it is difficult for the virtual space to recognize the sound information. Therefore, methods are being considered in which the sound information is visualized by some means and visually superimposed on the virtual space side.
  • Non-Patent Documents 1 and 2 are known.
  • Non-Patent Document 1 is an example of visualizing sound effects for online games.
  • sound effect data and visualization data (CG) for visualizing the sound effect data are stored in advance on a game server.
  • CG visualization data
  • when the sound effect visualization function is turned on, visualization data representing the corresponding sound effect is superimposed on game world data (CG) and transmitted to the user terminal.
  • the technology is such that the user terminal displays data received from the game server on a monitor.
  • Non-Patent Document 2 is an example of converting speech into text. This device recognizes human voice (speech) input through a microphone, converts it into text information, and displays the converted text as text on the terminal monitor.
  • speech human voice
  • Non-Patent Document 1 With the technology for visualizing sound effects in online games such as Non-Patent Document 1, it is possible to visualize sound effect data prepared in advance at best, but it is possible to visualize sound information obtained from real space in real time and at a timely manner. , difficult to visualize. This is because sound effects and visualization data are simply prepared in advance along with the game program and then loaded into memory and reused. Moreover, since the visual data of the game is a CG object prepared in advance, it is even more difficult to visualize and superimpose sound information on 3D point cloud data, which is a "collection of points.”
  • Non-Patent Document 2 In the first place, voice-to-text conversion technology such as Non-Patent Document 2 cannot visualize artificial sounds such as car horns, natural sounds such as wind and rain, or surrounding sounds (environmental sounds). . This technology recognizes human utterances (conversation sounds) and converts them into text in order to improve communication, for example for people with hearing disabilities.It is not expected to visualize environmental sounds in a virtual space. Not yet.
  • This invention was made in view of the above circumstances, and its purpose is to provide a technology that can reflect sounds in real space in virtual space.
  • An information processing device includes a communication section, a point cloud data management section, a sound information analysis section, an attribute change section, and a virtual space construction section.
  • the communication unit communicates with a real world information acquisition device that includes an environmental sensor and an acoustic sensor.
  • the point cloud data management unit stores 3D point cloud data of real space acquired from the real world information acquisition device.
  • the sound information analysis unit analyzes the sound information data of the ambient sound acquired from the real world information acquisition device and determines the type of the sound information data.
  • the attribute change unit changes attribute information of the 3D point cloud data stored in the point cloud data management unit based on the type of sound information data.
  • the virtual space construction unit constructs a virtual space image based on the 3D point cloud data with changed attribute information.
  • FIG. 1 is a diagram illustrating an example of a system to which an information processing apparatus according to an embodiment is applied.
  • FIG. 2 is a functional block diagram showing an example of the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • FIG. 3 is a diagram showing the flow of data related to the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • FIG. 4 is a diagram showing the flow of data related to the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • FIG. 5 is a flowchart showing an example of the processing procedure of the processor 70 of the virtual space management server 1.
  • 3D point cloud data can be acquired using, for example, LiDAR (Light Detection and Ranging).
  • LiDAR is a device that measures the distance, direction, position, shape, etc. to an object by irradiating the object with laser light and measuring the round trip time.
  • 3D point cloud data is generally a "mere collection of points" with attribute information such as three-dimensional coordinate values (X, Y, Z) and color information (R, G, B), and these characteristics It is difficult to superimpose visualized information on data. In other words, it is difficult to superimpose sound information data on 3D point cloud data. Techniques that can solve these difficulties will be described below.
  • FIG. 1 is a diagram illustrating an example of a system to which an information processing device according to an embodiment is applied.
  • the core of this system is a virtual space management server 1 as an information processing device.
  • the virtual space management server 1 can access the real world information acquisition device 2 via the network 4 , and further, the user terminal 3 can access the virtual space management server 1 via the network 4 .
  • a real world information acquisition device 2 is installed, for example, at an intersection or a park, and acquires environmental information around the installation location.
  • 3D point cloud data and sound information data are assumed as environmental information.
  • the real world information acquisition device 2 includes a measuring section 21 as an environmental sensor and an ambient sound collecting section 22 as an acoustic sensor.
  • the measurement unit 21 acquires 3D point cloud data in real space.
  • the ambient sound collection unit 22 acquires sound information data of the real space.
  • the 3D point cloud data and sound information data are transmitted to the virtual space management server 1 via the network 4.
  • the virtual space management server 1 acquires 3D point cloud data and sound information data via the network 4, and constructs a virtual space image from these data.
  • the user terminal 3 accesses the virtual space management server 1 via the network 4 and acquires virtual space images.
  • the virtual space management server 1 is an information processing device (computer) that includes a processor 70 and a memory 60.
  • the virtual space management server 1 includes a storage 50 and a communication unit 80 that functions as a communication interface with the network 4.
  • the communication unit 80 communicates with the real world information acquisition device 2 via the network 4 to acquire 3D point cloud data and sound information data.
  • the acquired 3D point cloud data (numeral 51) is stored in the storage 50.
  • the storage 50 further stores a program 52.
  • the program 52 is loaded into the memory 60 by the OS (Operation System) of the virtual space management server 1 and executed by the processor 70.
  • the program 52 causes the processor 70 to function as the point cloud data management section 10, the sound information analysis section 20, the virtual space construction section 30, and the attribute change section 40.
  • the point cloud data management unit 10 stores the 3D point cloud data of the real space acquired from the real world information acquisition device 2 in the storage 50, for example.
  • the sound information analysis unit 20 analyzes the sound information data of the ambient sound acquired from the real world information acquisition device 2 and determines the type of the sound information data.
  • the attribute change unit 40 changes the attribute information of the 3D point cloud data stored in the point cloud data management unit 10 based on the type of the sound information data.
  • the virtual space construction unit 30 constructs a virtual space image based on the 3D point cloud data with changed attribute information.
  • FIG. 2 is a functional block diagram showing an example of the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • the measurement unit 21 of the real world information acquisition device 2 is, for example, LiDAR, and scans the real space with a laser beam to obtain 3D point cloud data.
  • the ambient sound collection unit 22 is, for example, a 360-degree microphone, and collects sounds around the location where the real world information acquisition device 2 is installed to generate sound information data.
  • the 3D point cloud data and sound information data are transmitted to the virtual space management server 1 via a communication link formed between the communication unit 23 of the real world information acquisition device 2 and the communication unit 80 of the virtual space management server 1. Ru.
  • the user terminal 3 includes a video display section 31 connected to a monitor 31a, an audio playback section 32 connected to a speaker 32a, an I/O section 33 connected to a keyboard (KB) 33a, etc., and a communication section 34.
  • the video display unit 31 displays a virtual space video based on the 3D point cloud data received from the virtual space management server 1 on the monitor 31a.
  • the audio reproduction unit 32 reproduces sound from the speaker 32a.
  • the I/O unit 33 accepts user input/output operations from the KB 33a.
  • the virtual space management server 1 includes a communication section 80, a point cloud data management section 10, a sound information analysis section 20, a virtual space construction section 30, and an attribute change section 40.
  • the point cloud data management section 10 includes a point cloud data acquisition section 10a and a position determination section 10b.
  • the point cloud data acquisition unit 10a acquires 3D point cloud data from the measurement unit 21 of the real world information acquisition device 2, and stores it in the storage 50 as 3D point cloud data 51.
  • the position determination unit 10b acquires the installation position of the real world information acquisition device 2.
  • the sound information analysis section 20 includes a sound information acquisition section 20a, an analysis section 20b, and a sound information analysis rule management section 20c.
  • the sound information acquisition section 20a acquires sound information data from the ambient sound collection section 22.
  • the sound information analysis rule management unit 20c manages analysis rules for sound information data.
  • the analysis unit 20b analyzes the acquired sound information data based on the analysis rule of the sound information analysis rule management unit 20c, and calculates the type of the sound information data.
  • the attribute change unit 40 includes a point cloud data attribute change unit 40a and a point cloud data attribute change rule management unit 40b.
  • the point cloud data attribute change rule management unit 40b manages attribute change rules for 3D point cloud data.
  • the point cloud data attribute change unit 40a changes the attribute information of the 3D point cloud data stored in the point cloud data management unit 10 based on the change rule of the point cloud data attribute change rule management unit 40b.
  • the virtual space construction unit 30 includes a point cloud data visualization management unit 30a and a point cloud data visualization unit 30b.
  • the point cloud data visualization unit 30b visualizes the 3D point cloud data whose attribute information has been changed, and generates virtual space video data.
  • the point cloud data visualization management section 30a manages the visualization of 3D point cloud data by the point cloud data visualization section 30b based on the installation position of the real world information acquisition device 2.
  • FIG. 3 is a diagram showing the flow of data related to the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • the real world information acquisition device 2 transmits 3D point cloud data around the device acquired by the measurement unit 21 and sound information data around the device collected by the ambient sound collection unit 22 from the communication unit 23 to the virtual space. Send to management server 1.
  • the virtual space management server 1 sends the received 3D point cloud data to the point cloud data management section 10 for management.
  • the position determination unit 10b of the point cloud data management unit 10 extracts the position information of the real world information acquisition device 2 from the 3D point cloud data and passes it to the sound information analysis unit 20.
  • the sound information acquisition unit 20a of the sound information analysis unit 20 acquires sound information data and position information and passes it to the analysis unit 20b.
  • the analysis section 20b analyzes the sound information data based on the analysis rules of the sound information analysis rule management section 20c, and determines the type of the sound information data. In particular, the analysis unit 20b determines the type of sound information data in association with position information. That is, the type of sound information data is determined for each location information, and the result is passed to the attribute changing section 40.
  • the point cloud data attribute change unit 40a of the attribute change unit 40 changes the attribute information of the 3D point cloud data according to the type of sound information data notified from the analysis unit 20b.
  • the change rules of the point cloud data attribute change rule management unit 40b are referred to.
  • the changes to the attribute information for the 3D point cloud data are notified to the virtual space construction unit 30 along with the position information.
  • the point cloud data visualization unit 30b of the virtual space construction unit 30 superimposes the 3D point cloud data whose attributes have been changed by the attribute change unit 40 on the original 3D point cloud data (without changing the attributes) to create a virtual space image.
  • Build. Construction of the virtual space image is managed by the point cloud data visualization management section 30a based on the installation position of the real world information acquisition device 2.
  • the virtual space video after the attribute change is transmitted from the communication unit 80 to the user terminal 3.
  • the user terminal 3 functions based on instructions from the user given via the I/O unit 33, and displays the virtual space image after the attribute change received by the communication unit 34 on the monitor 31a.
  • the audio reproduction unit 32 reproduces sound information.
  • FIG. 4 is a diagram showing the flow of data related to the virtual space management server 1, the real world information acquisition device 2, and the user terminal 3.
  • the 3D point cloud data and sound information data collected by the real world information acquisition device 2 are transmitted to the virtual space management server 1.
  • the virtual space management server 1 analyzes the type of sound information data and changes the attributes of the 3D point cloud data based on this type.
  • the virtual space image created based on the 3D point cloud data after the attribute change is transmitted to the user terminal 3 and displayed on the monitor 31a.
  • FIG. 5 is a flowchart showing an example of the processing procedure of the processor 70 of the virtual space management server 1.
  • the processor 70 acquires 3D point cloud data of the real space from the real world information acquisition device 2 (step S1), and stores it in the storage (step S2). Further, the processor 70 acquires the sound information data of the ambient sound from the real world information acquisition device 2 (step S3), analyzes it, and calculates the type of the sound information data (step S4). Further, the processor 70 changes the attribute information of the 3D point cloud data based on the type of sound information data (step S5), and constructs a virtual space image from the 3D point cloud data with changed attribute information (step S6). ).
  • (1) Acquisition of real space information First, the real world information acquisition device 2 is installed near an intersection in real space.
  • the real world information acquisition device 2 senses the surroundings with the measurement unit 21 and acquires 3D point cloud data. Further, the ambient sound collection unit 22 collects sound information surrounding the real world information acquisition device 2 .
  • the acquired 3D point cloud data and sound information data are transmitted to the virtual space management server 1.
  • the virtual space management server 1 stores the 3D point cloud data received from the real world information acquisition device 2 in the storage 50, and uses the position determining unit 10b to record the position information of the intersection that is the source of the 3D point cloud data.
  • the sound information analysis unit 20 analyzes the sound information data around the device received from the real world information acquisition device 2 together with the position information notified from the position determination unit 10b.
  • the analysis rules used for analysis are managed by the sound information analysis rule management section 20c.
  • the analysis rule for ⁇ Operation example 1> is to determine whether the sound information is an artificial sound such as a car horn (rule (a)), and to determine its strength (rule (b)). .
  • the point cloud data attribute changing unit 40a of the virtual space management server 1 changes the attribute data of the 3D point cloud data based on the position information and determination type of the sound information.
  • the contents (rules) to be changed are defined in the point cloud data attribute change rule management section 40b. For example, regarding “artificial sounds”, assume that "large” is specified as “red”, “medium” as “orange”, and “small” as “yellow”.
  • the sound information data is determined to be (a: artificial sound) and (b: sound intensity: large).
  • the point cloud data attribute changing unit 40a changes the color attribute information of the 3D point cloud data in a 3m surrounding area from the coordinates recorded in the position determining unit 10b to a numerical value of "red”. [Position information and attribute change details] are sent to the virtual space construction unit 30.
  • the point cloud data visualization unit 30b of the virtual space construction unit 30 selects the corresponding 3D point cloud data read from the storage 50 based on the [position information and attribute change details] notified from the point cloud data attribute change unit 40a. Change the attributes of the point whose coordinates you want. When the attributes of all related points have been changed, the point cloud data visualization unit 30b creates virtual space video data using this new point cloud data. When this virtual space video data is visualized, the area around the intersection where the real world information acquisition device 2 is installed in the virtual space will be displayed as a group of red dots.
  • ⁇ Operation example 2> In this operation example, it is assumed that the real world information acquisition device 2 is installed in a park. In this operation example 2, the virtual space management server 1 analyzes the natural sounds of the park collected by the real world information acquisition device 2.
  • (1) Acquisition of real space information First, the real world information acquisition device 2 is installed in a park in real space. The real world information acquisition device 2 senses the surroundings with the measurement unit 21 and acquires 3D point cloud data. Further, the ambient sound collection unit 22 collects sound information surrounding the real world information acquisition device 2 . The acquired 3D point cloud data and sound information data are transmitted to the virtual space management server 1.
  • the virtual space management server 1 stores the 3D point cloud data received from the real world information acquisition device 2 in the storage 50, and uses the position determination unit 10b to record the position information of the park that is the source of the 3D point cloud data.
  • the sound information analysis unit 20 analyzes the sound information data around the device received from the real world information acquisition device 2 together with the position information notified from the position determination unit 10b.
  • the analysis rules used for analysis are managed by the sound information analysis rule management section 20c.
  • the analysis rule of ⁇ Operation Example 1> is to determine whether the sound information is a natural sound such as the sound of the wind (rule (a)), and to determine its strength (rule (b)).
  • the point cloud data attribute changing unit 40a of the virtual space management server 1 changes the attribute data of the 3D point cloud data based on the position information and determination type of the sound information.
  • the contents (rules) to be changed are defined in the point cloud data attribute change rule management section 40b. For example, for "natural sounds", the position information of the point cloud data will be changed within 10% if "large” is “surrounding 5 m”, “medium” is “surrounding 3 m”, and “small” is “surrounding 1 m”. Assume that it is specified.
  • the sound information data is determined to be (a: natural sound) and (b: sound intensity: medium).
  • the point cloud data attribute changing unit 40a changes the coordinates of the 3D point cloud data within a 3m range from the coordinates recorded in the position determining unit 10b to a value within 10%. Attribute change content] is sent to the virtual space construction unit 30.
  • the point cloud data visualization unit 30b of the virtual space construction unit 30 selects the corresponding 3D point cloud data read from the storage 50 based on the [position information and attribute change details] notified from the point cloud data attribute change unit 40a. Change the attributes of the point whose coordinates you want. When the attributes of all related points have been changed, the point cloud data visualization unit 30b creates virtual space video data using this new point cloud data. When this virtual space video data is visualized, a group of points in the virtual space around the position in the park where the real world information acquisition device 2 is installed will be displayed with a "shaking" feeling.
  • ⁇ Operation example 3> In this operation example, it is assumed that the sound information analysis unit 20 of the virtual space management server 1 uses, for example, an external AI (Artificial Intelligence) system having a sound information analysis function. In operation examples 1 and 2, sound information data was analyzed by the sound information analysis unit 20 of the virtual space management server 1. Instead, it is expected that the performance of the sound information analysis function can be improved by linking with an external AI system or the like. To achieve this, for example, the sound information analysis unit 20 is equipped with an interface function with an external AI system, transmits sound information data to the external AI system, and receives analysis results including the type of this sound information data. I will do it.
  • an external AI Artificial Intelligence
  • the virtual space management server 1 further has a text change function and also has a function of converting sound information into text.
  • the point cloud data attribute changing unit 40a of the virtual space management server 1 changed the attributes of the point cloud data.
  • it may be used in conjunction with changing the attributes of the point cloud data, for example, using an audio-to-text conversion function.
  • the virtual space management server 1 further has a video data addition function and also has a function of converting sound information into video data.
  • the point cloud data attribute changing unit 40a of the virtual space management server 1 changed the attributes of the point cloud data.
  • a CG Computer Graphics
  • a CG image is read out and superimposed on the virtual space image.
  • a sound information CG storage function for storing a CG image corresponding to the sound information is added to the sound information analysis section 20, and the CG image corresponding to the type of sound information data is sent to the virtual space construction section 30. It is preferable to construct a virtual space image by superimposing a CG image.
  • a real space information acquisition device As described above, in the embodiment, as a real space information acquisition device, a real world information acquisition device 2 equipped with a 3D point cloud data measurement function and a microphone for collecting ambient sound is installed at an intersection, a park, etc. .
  • the virtual space management server 1 analyzes the sound information data received from the real world information acquisition device 2 and determines its type. Depending on the type of sound information data, the virtual space management server 1 changes the attributes of the received 3D point cloud data and constructs a virtual space image using the 3D point cloud data. For example, if the type of sound information data is determined to be an artificial sound (such as a car horn), the color information of the point at the corresponding position in the 3D point cloud data is changed to red. Further, when it is determined that the type of sound information data is natural sound (wind sound, etc.), the coordinate value information of the point at the corresponding position is changed within a certain range.
  • an artificial sound such as a car horn
  • red red
  • the coordinate value information of the point at the corresponding position is changed within a certain range.
  • the generated virtual space video data is transmitted to the user terminal 3.
  • a virtual space image based on 3D point cloud data whose attributes have been changed based on the sound information data is displayed. This allows the user to experience a virtual space based on 3D point cloud data in which sound information of the real space is visually reflected.
  • a user can recognize ambient sound information as visualized information in a virtual space created by a 3D point cloud. This makes it possible to recognize ambient sound information in the real space even if there is an abnormality in the audio reproduction device in the virtual space or if the person on the virtual space side is hard of hearing. For these reasons, according to the embodiment, it is possible to provide a technology that can reflect sounds in real space in virtual space.
  • the sound information analysis unit 20 determines whether the sound information data is an artificial sound. If the performance of sound information analysis improves further, it is expected that the sound information analysis unit 20 will be able to determine even the type of artificial sound (whether it is a horn sound, a collision sound, etc.). If this becomes possible, for example, the number of change patterns in the point cloud data attribute change unit 40a may be increased in response to an increase in the types of distinguishable artificial sounds.
  • the sound information analysis unit 20 determined whether the sound information data was a natural sound. If the performance of sound information analysis improves further, it is expected that the sound information analysis unit 20 will be able to determine even the type of natural sound (wind sound, rain sound, etc.). If this becomes possible, for example, the number of change patterns in the point cloud data attribute change unit 40a may be increased in accordance with the increase in the types of distinguishable natural sounds.
  • the present invention can be embodied by modifying the constituent elements within the scope of the invention at the implementation stage.
  • various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components from different embodiments may be combined as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

この発明の一態様に係る情報処理装置は、通信部、点群データ管理部、音情報解析部、属性変更部、および仮想空間構築部を具備する。通信部は、環境センサおよび音響センサを備える現実世界情報取得装置と通信する。点群データ管理部は、現実世界情報取得装置から取得された現実空間の3D点群データを格納する。音情報解析部は、現実世界情報取得装置から取得された周囲音の音情報データを解析して当該音情報データの種別を求める。属性変更部は、点群データ管理部に格納された3D点群データの属性情報を音情報データの種別に基づいて変更する。仮想空間構築部は、属性情報を変更された3D点群データに基づいて仮想空間映像を構築する。

Description

情報処理装置、情報処理方法、およびプログラム
 この発明の一態様は、XR(仮想現実(VR:Virtual Reality)、拡張現実(AR:Augmented Reality)、MR(複合現実:Mixed Reality)等)と呼ばれる、仮想空間(Virtual Space)構築技術に用いられる情報処理装置、情報処理方法、およびプログラムに関する。
 コンピュータを用いて仮想空間をクリエイトする技術が注目されている。仮想空間は、例えば複数の人がログイン可能なコンピュータサーバに、CG(Computer Graphics)技術等を用いて構築される。VR(Virtual Reality)は、その代表的なテクノロジーであり、例えば、クエストゲームのシーン等の仮想的世界を表現するのに応用されている。近年ではそれに加えて、現実空間(現実世界)での測定データをもとに、3Dの仮想空間に現実空間を忠実に再現することが試みられている。
 現実空間を測定して得られた3D点群データは、現実空間を仮想空間に表現するのに適している。さらに、現実空間の音情報を、仮想空間に反映することが考えられる。例えば、3D点群データと音情報とを同時に計測し、3D点群データで構築した仮想空間に音情報を反映することで、リアルなデジタルツインを作成することができる。
 仮想空間に音情報を反映する手法としては、収集された音情報を仮想空間側で音響的に再生することが先ず考えられる。しかし、仮想空間側の人物が耳が不自由であったり、音を再生する機器にトラブルが発生したりすると、仮想空間側で音情報を認識することが難しい。そこで、音情報を何らかの手段で視覚化し、仮想空間側に視覚的に重畳するという手法が検討されている。音情報の視覚化に関しては例えば非特許文献1、2が知られている。
 非特許文献1は、オンラインゲームの効果音を視覚化することについての一例である。オンラインゲームでは、効果音データやこれを視覚化する際の視覚化データ(CG)が予めゲームサーバに格納される。非特許文献1の技術は、効果音視覚化機能がONになれば、該当する効果音を表す視覚化データをゲーム世界データ(CG)に重畳してユーザ端末に送信する。ユーザ端末は、ゲームサーバから受信したデータをモニタに表示するという技術である。
 非特許文献2は、音声を文字に変換することについての一例である。この機器は、マイクから入力された人間の音声(発話)を認識して文字情報に変換し、変換後の文字を端末のモニタにテキストで表示するというものである。
"[サウンドエフェクトを視覚化]アプデで強化された内容とは(フォートナイト)",[online],[令和4年5月2日検索],インターネット,<URL:https://hebi-pan.com/fn-visual/> "ポケトーク(登録商標)mimi(SOURCENEXT社)",[online],[令和4年5月2日検索],インターネット,<URL:https://pocketalkmimi.jp>
 非特許文献1のような、オンラインゲームで効果音を視覚化する技術では、予め用意された効果音データを視覚化できるのがせいぜいで、現実空間から取得された音情報を実時間で、適時、視覚化することは難しい。効果音も、視覚化データも、ゲームのプログラムとともに前もって用意されたものがメモリにロードされ使いまわしされるにすぎないからである。まして、ゲームのビジュアルデータはCGで予め用意されたオブジェクトであるので、「点の集まり」である3D点群データに音情報を視覚化して重畳することは、さらに困難である。
 非特許文献2のような音声文字変換技術では、そもそも、車のクラクションのような人工音や、風の音や雨の音などの自然音、あるいは周囲の音(環境音)を視覚化することはできない。この技術は、例えば耳の不自由な人のコミュニケーションを改善するために、人の発する発話(会話音声)を認識し文字化するもので、環境音などを仮想空間で視覚化することは想定されていない。
 この発明は上記事情に着目してなされたもので、その目的は、現実空間の音を仮想空間に反映できる技術を提供することにある。
 この発明の一態様に係る情報処理装置は、通信部、点群データ管理部、音情報解析部、属性変更部、および仮想空間構築部を具備する。通信部は、環境センサおよび音響センサを備える現実世界情報取得装置と通信する。点群データ管理部は、現実世界情報取得装置から取得された現実空間の3D点群データを格納する。音情報解析部は、現実世界情報取得装置から取得された周囲音の音情報データを解析して当該音情報データの種別を求める。属性変更部は、点群データ管理部に格納された3D点群データの属性情報を音情報データの種別に基づいて変更する。仮想空間構築部は、属性情報を変更された3D点群データに基づいて仮想空間映像を構築する。
 この発明の一態様によれば、現実空間の音を仮想空間に反映できる技術を提供することができる。
図1は、実施形態に係わる情報処理装置が適用されるシステムの一例を示す図である。 図2は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3の一例を示す機能ブロック図である。 図3は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3に係わるデータの流れを示す図である。 図4は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3に係わるデータの流れを示す図である。 図5は、仮想空間管理サーバ1のプロセッサ70の処理手順の一例を示すフローチャートである。
 以下、図面を参照してこの発明に係わる実施形態を説明する。導入として、先ず、3D点群データについて説明する。 
 現実空間を測定し、現実空間を模した仮想空間を構築する手法の一つに、3D点群データを用いる手法がある。3D点群データは、例えばLiDAR(Light Detection and Ranging)を用いて取得することができる。LiDARは、対象物にレーザ光を照射し、その往復時間を計測することで、物体までの距離や方向、位置、形状などを測定するデバイスである。レーザ光のスキャン結果を点で表し、収集された無数の点(点群)を点描することで、現実空間の物体の画像イメージを生成することができる。
 ところで、一般に3D点群データは、3次元座標値(X,Y,Z)や色の情報(R,G,B)などの属性情報を持つ「単なる点の集まり」であり、このような性質のデータに、視覚化された情報を重畳することは難しい。つまり、3D点群データに音情報データを重畳することは難しい。以下では、このような困難を解決し得る技術について説明する。
 図1は、実施形態に係わる情報処理装置が適用されるシステムの一例を示す図である。このシステムは、情報処理装置としての仮想空間管理サーバ1を中核とする。仮想空間管理サーバ1は、ネットワーク4を介して現実世界情報取得装置2にアクセスすることが可能であり、さらに、ユーザ端末3が、ネットワーク4を介して仮想空間管理サーバ1にアクセスすることができる。
 図1において、現実世界情報取得装置2は、例えば交差点や公園などに設置され、設置場所の周辺の環境情報を取得する。実施形態において、3D点群データ、および音情報データを環境情報として想定する。現実世界情報取得装置2は、環境センサとしての測定部21と、音響センサとしての周囲音収集部22とを備える。測定部21は、現実空間の3D点群データを取得する。周囲音収集部22は、現実空間の音情報データを取得する。3D点群データ、および音情報データは、ネットワーク4経由で仮想空間管理サーバ1に伝送される。
 仮想空間管理サーバ1は、ネットワーク4を介して3D点群データおよび音情報データを取得し、これらのデータから仮想空間映像を構築する。ユーザ端末3は、ネットワーク4を介して仮想空間管理サーバ1にアクセスし、仮想空間映像を取得する。
 仮想空間管理サーバ1は、プロセッサ70およびメモリ60を具備する情報処理装置(コンピュータ)である。加えて、仮想空間管理サーバ1は、ストレージ50と、ネットワーク4との通信インタフェースとして機能する通信部80とを備える。
 通信部80は、ネットワーク4経由で現実世界情報取得装置2と通信して、3D点群データと、音情報データを取得する。取得された3D点群データ(符号51)はストレージ50に格納される。
 ストレージ50は、さらに、プログラム52を記憶する。プログラム52は、仮想空間管理サーバ1のOS(Operation System)によりメモリ60にロードされ、プロセッサ70により実行される。プログラム52は、プロセッサ70を、点群データ管理部10、音情報解析部20、仮想空間構築部30、および、属性変更部40として機能させる。
 点群データ管理部10は、現実世界情報取得装置2から取得された現実空間の3D点群データを、例えばストレージ50に格納する。 
 音情報解析部20は、現実世界情報取得装置2から取得された周囲音の音情報データを解析して、当該音情報データの種別を求める。 
 属性変更部40は、点群データ管理部10に格納された3D点群データの属性情報を前記音情報データの種別に基づいて変更する。 
 仮想空間構築部30は、属性情報を変更された3D点群データに基づいて仮想空間映像を構築する。
 図2は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3の一例を示す機能ブロック図である。図2において、現実世界情報取得装置2の測定部21は例えばLiDARであり、現実空間をレーザ光でスキャンして3D点群データを得る。
 周囲音収集部22は例えば360度マイクであり、現実世界情報取得装置2が設置された場所の周囲の音を収集して音情報データを生成する。3D点群データおよび音情報データは、現実世界情報取得装置2の通信部23と仮想空間管理サーバ1の通信部80との間に形成された通信リンクを介して仮想空間管理サーバ1に送信される。
 ユーザ端末3は、モニタ31aに接続された映像表示部31、スピーカ32aに接続された音声再生部32、キーボード(KB)33a等に接続されたI/O部33、および通信部34を備える。映像表示部31は、仮想空間管理サーバ1から受信した3D点群データによる仮想空間映像をモニタ31aに表示する。音声再生部32は、スピーカ32aから音響を再生する。I/O部33は、KB33aからのユーザの入出力操作を受け付ける。
 仮想空間管理サーバ1は、通信部80と、点群データ管理部10、音情報解析部20、仮想空間構築部30、および、属性変更部40を備える。 
 点群データ管理部10は、点群データ取得部10a、および位置確定部10bを備える。 
 点群データ取得部10aは、現実世界情報取得装置2の測定部21から3D点群データを取得し、ストレージ50に3D点群データ51として格納する。 
 位置確定部10bは、現実世界情報取得装置2の設置位置を取得する。
 音情報解析部20は、音情報取得部20a、解析部20b、および、音情報解析ルール管理部20cを備える。 
 音情報取得部20aは、周囲音収集部22からの音情報データを取得する。 
 音情報解析ルール管理部20cは、音情報データの解析ルールを管理する。 
 解析部20bは、取得された音情報データを、音情報解析ルール管理部20cの解析ルールに基づいて解析して、当該音情報データの種別を算出する。
 属性変更部40は、点群データ属性変更部40a、および、点群データ属性変更ルール管理部40bを備える。 
 点群データ属性変更ルール管理部40bは、3D点群データの属性の変更ルールを管理する。 
 点群データ属性変更部40aは、点群データ管理部10に格納された3D点群データの属性情報を、点群データ属性変更ルール管理部40bの変更ルールに基づいて変更する。
 仮想空間構築部30は、点群データ映像化管理部30a、および、点群データ映像化部30bを備える。 
 点群データ映像化部30bは、属性情報を変更された3D点群データを映像化して、仮想空間の映像データを生成する。 
 点群データ映像化管理部30aは、点群データ映像化部30bによる3D点群データの映像化を、現実世界情報取得装置2の設置位置に基づいて管理する。
 図3は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3に係わるデータの流れを示す図である。 
 図3において、現実世界情報取得装置2は、測定部21により取得した装置周囲の3D点群データと、周囲音収集部22により収集した装置周囲の音情報データとを、通信部23から仮想空間管理サーバ1に送信する。
 仮想空間管理サーバ1は、受信した3D点群データを点群データ管理部10に送り、管理する。点群データ管理部10の位置確定部10bは、現実世界情報取得装置2の位置情報を3D点群データから抽出し、音情報解析部20に渡す。
 音情報解析部20の音情報取得部20aは、音情報データおよび位置情報を取得し、解析部20bに渡す。解析部20bは、音情報解析ルール管理部20cの解析ルールに基づいて音情報データを解析し、音情報データの種別を判定する。特に、解析部20bは、位置情報に対応付けて音情報データの種別を判定する。つまり、音情報データの種別は位置情報ごとに判定され、その結果は属性変更部40に渡される。
 属性変更部40の点群データ属性変更部40aは、3D点群データの属性情報を、解析部20bから通知された音情報データの種別に応じて変更する。その際、点群データ属性変更ルール管理部40bの変更ルールが参照される。3D点群データに対する属性情報の変更内容は、位置情報とともに仮想空間構築部30に通知される。
 仮想空間構築部30の点群データ映像化部30bは、元の(属性を変更しない)3D点群データに、属性変更部40により属性を変更された3D点群データを重畳し、仮想空間映像を構築する。仮想空間映像を構築することは、点群データ映像化管理部30aにより現実世界情報取得装置2の設置位置に基づいて管理される。属性変更後の仮想空間映像は、通信部80からユーザ端末3に送信される。
 ユーザ端末3は、I/O部33を介して与えられたユーザからの指示等に基づいて機能し、通信部34で受信した属性変更後の仮想空間映像を、モニタ31aに表示する。音声再生部32は、音情報の再生を行う。
 図4は、仮想空間管理サーバ1、現実世界情報取得装置2、およびユーザ端末3に係わるデータの流れを示す図である。現実世界情報取得装置2で収集された3D点群データと音情報データは、仮想空間管理サーバ1に送信される。仮想空間管理サーバ1は、音情報データの種別を解析し、この種別に基づいて3D点群データの属性を変更する。属性変更後の3D点群データに基づいて作成された仮想空間映像は、ユーザ端末3に送信され、モニタ31aに表示される。
 図5は、仮想空間管理サーバ1のプロセッサ70の処理手順の一例を示すフローチャートである。図5において、プロセッサ70は、現実空間の3D点群データを現実世界情報取得装置2から取得し(ステップS1)、ストレージに格納する(ステップS2)。また、プロセッサ70は、周囲音の音情報データを現実世界情報取得装置2から取得し(ステップS3)、解析して、音情報データの種別を算出する(ステップS4)。 
 さらに、プロセッサ70は、音情報データの種別に基づいて3D点群データの属性情報を変更し(ステップS5)、この、属性情報を変更した3D点群データから仮想空間映像を構築する(ステップS6)。
 次に、上記構成における作用を複数の動作例に分けて説明する。 
 <動作例1>
 この動作例では、現実世界情報取得装置2が交差点に設置されることを想定とする。この動作例では、仮想空間管理サーバ1が、現実世界情報取得装置2で収取された交差点の人口音を解析する。
 (1)現実空間情報の取得:
 まず、現実世界情報取得装置2を、現実空間の交差点近くに設置する。現実世界情報取得装置2は、測定部21で周囲をセンシングし、3D点群データを取得する。また、周囲音収集部22が現実世界情報取得装置2の周囲の音情報を収集する。取得された3D点群データと音情報データは、仮想空間管理サーバ1に送信される。
 (2)点群データの保管:
 仮想空間管理サーバ1は、現実世界情報取得装置2から受信した3D点群データをストレージ50に格納し、位置確定部10bで、3D点群データの送信元である交差点の位置情報を記録する。
 (3)音情報の解析:
 仮想空間管理サーバ1は、現実世界情報取得装置2から受信した装置周囲の音情報データを、位置確定部10bから通知された位置情報と共に音情報解析部20で解析する。解析に利用される解析ルールは、音情報解析ルール管理部20cにより管理される。<動作例1>の解析ルールは、その音情報が車のクラクション等の人工音かどうかを判定し(ルール(a))、および、その強弱を判定する(ルール(b))というものである。
 また、<動作例1>では、当該交差点で、大きなクラクション音が鳴らされたとし、(a:人工音である)、(b:音の強度:大)と判定されたものとする。
 (4)点群データの属性変更のルール:
 仮想空間管理サーバ1の点群データ属性変更部40aは、音情報の位置情報と判定種別に基づいて、3D点群データの属性データを変更する。変更する内容(ルール)は、点群データ属性変更ルール管理部40bに規定されている。例えば「人工音」に関しては、「大」なら「赤」、「中」なら「オレンジ」、「小」なら「黄色」と規定されているとする。
 (5)点群データの属性の変更:
 <動作例1>では、当該音情報データが(a:人工音である)、(b:音の強度:大)と判定された。これに応じて点群データ属性変更部40aは、位置確定部10bに記録された座標から例えば周囲3m範囲の3D点群データの色の属性情報を「赤」となる数値に変更するという内容の[位置情報と属性変更内容]を仮想空間構築部30に送る。
 (6)属性変更後の仮想空間映像の構築:
 仮想空間構築部30の点群データ映像化部30bは、点群データ属性変更部40aから通知された[位置情報と属性変更内容]に基づき、ストレージ50から読み出した3D点群データのうち、該当する座標の点の属性を変更する。関係するすべての点の属性の変更が完了すると、点群データ映像化部30bは、この新たな点群データを用いて仮想空間映像データを作成する。この仮想空間映像データを映像化すると、仮想空間内における、現実世界情報取得装置2が設置された交差点の周囲が赤い点群で表示されることとなる。
 (7)属性変更後の仮想空間映像の表示:
 現実世界情報取得装置2が設置された仮想空間内の交差点の周囲が、赤い点群で表示された[属性変更後の仮想空間映像データ]、がユーザ端末3に送信される。ユーザ端末3は、これを受信し、映像化して、モニタ31aに表示する。このようにすることで、ユーザは、当該交差点の近くで、大きな人工音が鳴らされたことを、仮想空間内において視覚的に認識することが可能となる。
 <動作例2>
 この動作例では、現実世界情報取得装置2が公園に設置されることを想定する。この動作例2では、仮想空間管理サーバ1が、現実世界情報取得装置2で収集された公園の自然音を解析する。
 (1)現実空間情報の取得:
 まず、現実世界情報取得装置2を、現実空間の公園内に設置する。現実世界情報取得装置2は、測定部21で周囲をセンシングし、3D点群データを取得する。また、周囲音収集部22が現実世界情報取得装置2の周囲の音情報を収集する。取得された3D点群データと音情報データは、仮想空間管理サーバ1に送信される。
 (2)点群データの保管:
 仮想空間管理サーバ1は、現実世界情報取得装置2から受信した3D点群データをストレージ50に格納し、位置確定部10bで、3D点群データの送信元である公園の位置情報を記録する。
 (3)音情報の解析:
 仮想空間管理サーバ1は、現実世界情報取得装置2から受信した装置周囲の音情報データを、位置確定部10bから通知された位置情報と共に音情報解析部20で解析する。解析に利用される解析ルールは、音情報解析ルール管理部20cにより管理される。<動作例1>の解析ルールは、その音情報が風の音等の自然音かどうかを判定し(ルール(a))、および、その強弱を判定する(ルール(b))というものである。
 また、<動作例2>では、当該公園内で、「ざわざわ」という感じの風の音が集音されたとし、(a:自然音である)、(b:音の強度:中)と判定されたものとする。
 (4)点群データの属性変更のルール:
 仮想空間管理サーバ1の点群データ属性変更部40aは、音情報の位置情報と判定種別に基づいて、3D点群データの属性データを変更する。変更する内容(ルール)は、点群データ属性変更ルール管理部40bに規定されている。例えば「自然音」に関しては、「大」なら「周囲5m」、「中」なら「周囲3m」、「小」なら「周囲1m」の点群データの位置情報を10%内で変動する、と規定されているとする。
 (5)点群データの属性の変更:
 <動作例2>では、当該音情報データが(a:自然音である)、(b:音の強度:中)と判定された。これに応じて点群データ属性変更部40aは、位置確定部10bに記録された座標から例えば周囲3m範囲の3D点群データの座標を10%内の数値に変動させるという内容の[位置情報と属性変更内容]を仮想空間構築部30へ送る。
 (6)属性変更後の仮想空間映像の構築:
 仮想空間構築部30の点群データ映像化部30bは、点群データ属性変更部40aから通知された[位置情報と属性変更内容]に基づき、ストレージ50から読み出した3D点群データのうち、該当する座標の点の属性を変更する。関係するすべての点の属性の変更が完了すると、点群データ映像化部30bは、この新たな点群データを用いて仮想空間映像データを作成する。この仮想空間映像データを映像化すると、仮想空間内における、現実世界情報取得装置2が設置された公園内の位置の周囲の点群が「揺れた」感じで表示されることとなる。
 (7)属性変更後の仮想空間映像の表示:
 現実世界情報取得装置2が設置された仮想空間内の公園内の位置の周囲が、「揺れた」感じで表示された[属性変更後の仮想空間映像データ]が、ユーザ端末3に送信される。ユーザ端末3は、これを受信し、映像化して、モニタ31aに表示する。このようにすることで、ユーザは、当該公園内で、「中くらいの自然音」が聞こえたことを、視覚的に認識することが可能となる。
 <動作例3>
 この動作例では、仮想空間管理サーバ1の音情報解析部20が、例えば、音情報解析機能を有する外部のAI(Artificial Intelligence)システムを利用することを想定する。 
 動作例1、2では、仮想空間管理サーバ1の音情報解析部20により音情報データを解析した。これに代えて、外部のAIシステム等と連携することで、音情報解析機能の性能を向上できることが期待される。これを実現するには、例えば音情報解析部20に外部AIシステムとのインタフェース機能を実装し、外部のAIシステムに音情報データを送信して、この音情報データの種別を含む解析結果を受信することになる。
 <動作例4>
 この動作例では、仮想空間管理サーバ1がさらにテキスト変更機能を備え、音情報をテキストに変換する機能を併せ持つことを想定する。 
 動作例1、2では、仮想空間管理サーバ1の点群データ属性変更部40aにより点群データの属性を変更した。これだけでなく、仮想空間側の映像表現をよりリッチなものにするためには、例えば音声文字変換機能により、点群データの属性を変更することと併用しても良い。例えば、音情報解析部20に音声文字変換機能を追加で実装し、文字変換した結果(テキスト)を仮想空間構築部30に送り、テキスト情報を重畳した仮想空間映像を構築するとよい。
 <動作例5>
 この動作例では、仮想空間管理サーバ1がさらに映像データ追加機能を備え、音情報を映像データに変換する機能を併せ持つことを想定する。 
 動作例1、2では、仮想空間管理サーバ1の点群データ属性変更部40aにより点群データの属性を変更した。これだけでなく、仮想空間側の映像表現をよりリッチなものにするためには、音情報の種別に対応するCG(Computer Graphics)画像を用意し、ストレージ50などに記憶させる。そして、3D点群データの属性を変更することと並行して、CG画像を読み出して仮想空間映像に重畳するようにする。
 このケースでは、例えば音情報解析部20に、音情報に対応するCG画像を格納する音情報CG格納機能を追加し、音情報データの種別に対応したCG画像を仮想空間構築部30に送り、CG画像を重畳した仮想空間映像を構築するとよい。
 <動作例6>
 この動作例では、現実世界情報取得装置2が可搬型であり、自由に移動であることを想定する。
 動作例1では、現実世界情報取得装置2が交差点に設置されることを想定した。また動作例2では、現実世界情報取得装置2が公園に設置されることを想定した。いずれも現実世界情報取得装置2は、固定的に設置されていた。
 ところで近年、簡易的なLiDAR測定機能を実装するモバイル端末(スマートフォン等)が知られている。そこで、将来的には、現実世界情報取得装置2を可搬型にすることも可能となる可能性がある。このようなケースでは、仮想空間管理サーバ1内の位置確定部10bに位置推定機能を追加し、現実世界情報取得装置2の現在位置を推定した後、位置を記録するとよい。
 以上述べたように、実施形態では、現実空間の情報取得装置として、3D点群データ測定機能と周囲音を収集するマイク等を備えた現実世界情報取得装置2を、交差点や公園などに設置する。
 また、仮想空間管理サーバ1は、現実世界情報取得装置2から受信した音情報データを解析し、その種別を判定する。音情報データの種別に応じて、仮想空間管理サーバ1は、受信した3D点群データの属性を変更し3D点群データによる仮想空間映像を構築する。例えば、音情報データの種別が人工音(車のクラクション等)と判定された場合には、3D点群データの対応する位置の点の色情報を赤色に変更する。また、音情報データの種別が自然音(風の音など)と判定された場合には、対応する位置の点の座標値情報を一定の範囲で変更する。
 生成された仮想空間映像データは、ユーザ端末3に送信される。ユーザ端末3において、音情報データに基づいて属性を変更された3D点群データによる仮想空間映像が表示される。これにより、ユーザは、現実空間の音情報が視覚的に反映された3D点群データによる仮想空間を体験することが可能になる。
 実施形態によれば、ユーザは、3D点群による仮想空間内において、周囲音情報を視覚化された情報として認識できるようになる。これにより、仮想空間の音声再生装置に異常があったり、仮想空間側の人が聴覚が不自由であったりする場合でも、現実空間の周囲音情報を認識することが可能になる。
 これらのことから、実施形態によれば、現実空間の音を仮想空間に反映できる技術を提供することが可能になる。
 なお、この発明は、上記実施形態そのままに限定されるものではない。 
 例えば、<動作例1>では、音情報データが人工音か否かを音情報解析部20により判定した。音情報解析の性能がさらに向上すると、その人工音の種別(クラクション音か、衝突音か等)までも音情報解析部20で判定できることが期待される。これが可能になった場合には、例えば区別可能な人工音の種別が増加したことに応じて、点群データ属性変更部40aでの変更パターンも増やすことが考えられる。
 また、<動作例2>では、音情報データが自然音か否かを音情報解析部20により判定した。音情報解析の性能がさらに向上すると、その自然音の種別(風の音か、雨の音か等)までも音情報解析部20で判定できることが期待される。これが可能になった場合には、例えば区別可能な自然音の種別が増加したことに応じて、点群データ属性変更部40aでの変更パターンも増やすことが考えられる。
 また、本発明は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。さらに、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
 1…仮想空間管理サーバ
 2…現実世界情報取得装置
 3…ユーザ端末
 4…ネットワーク
 10…点群データ管理部
 10a…点群データ取得部
 10b…位置確定部
 20…音情報解析部
 20a…音情報取得部
 20b…解析部
 20c…音情報解析ルール管理部
 21…測定部
 22…周囲音収集部
 23…通信部
 30…仮想空間構築部
 30a…点群データ映像化管理部
 30b…点群データ映像化部
 31…映像表示部
 31a…モニタ
 32…音声再生部
 32a…スピーカ
 33…I/O部
 33a…キーボード
 34…通信部
 40…属性変更部
 40a…3点群データ属性変更部
 40b…3点群データ属性変更ルール管理部
 50…ストレージ
 51…3D点群データ
 52…プログラム
 60…メモリ
 70…プロセッサ
 80…通信部。

 

Claims (8)

  1.  環境センサおよび音響センサを備える現実世界情報取得装置と通信する通信部と、
     前記現実世界情報取得装置から取得された現実空間の3D点群データを格納する点群データ管理部と、
     前記現実世界情報取得装置から取得された周囲音の音情報データを解析して当該音情報データの種別を求める音情報解析部と、
     前記点群データ管理部に格納された3D点群データの属性情報を前記音情報データの種別に基づいて変更する属性変更部と、
     前記属性情報を変更された3D点群データに基づいて仮想空間映像を構築する仮想空間構築部とを具備する、情報処理装置。
  2.  前記点群データ管理部は、
      前記環境センサから前記3D点群データを取得する点群データ取得部と、
      前記取得された3D点群データを格納する点群データ格納部と、
      現実世界情報取得装置の設置位置を取得する位置確定部とを備える、請求項1に記載の情報処理装置。
  3.  前記音情報解析部は、
      前記音響センサから前記音情報データを取得する音情報取得部と、
      前記音情報データの解析ルールを管理する音情報解析ルール管理部と、
      前記取得された音情報データを前記解析ルールに基づいて解析して、当該音情報データの種別を算出する解析部とを備える、請求項1に記載の情報処理装置。
  4.  前記音情報解析部は、
      音情報解析機能を備えるAIシステムとのインタフェース機能と、
      前記取得された音情報データを前記AIシステムに送信し、当該AIシステムによる前記音情報データの解析結果を受信する機能とを備える、請求項1に記載の情報処理装置。
  5.  前記属性変更部は、
      前記3D点群データの属性の変更ルールを管理する点群データ属性変更ルール管理部と、
      前記点群データ管理部に格納された3D点群データの属性情報を前記変更ルールに基づいて変更する点群データ属性変更部と、を備える、請求項1に記載の情報処理装置。
  6.  前記仮想空間構築部は、
      前記属性情報を変更された3D点群データを映像化して仮想空間の映像データを生成する点群データ映像化部と、
      前記3D点群データの映像化を、現実世界情報取得装置の設置位置に基づいて管理する点群データ映像化管理部とを備える、請求項1に記載の情報処理装置。
  7.  プロセッサとストレージとを具備する情報処理装置の前記プロセッサにより実行される情報処理方法において、
     前記プロセッサが、環境センサおよび音響センサを備える現実世界情報取得装置と通信する過程と、
     前記プロセッサが、前記現実世界情報取得装置から取得された現実空間の3D点群データを前記ストレージに格納する過程と、
     前記プロセッサが、前記現実世界情報取得装置から取得された周囲音の音情報データを解析して当該音情報データの種別を求める過程と、
     前記プロセッサが、前記ストレージに格納された3D点群データの属性情報を前記音情報データの種別に基づいて変更する過程と、
     前記プロセッサが、前記属性情報を変更された3D点群データに基づいて仮想空間映像を構築する過程とを具備する、情報処理方法。
  8.  コンピュータを、請求項1乃至6のいずれか1項に記載の情報処理装置の前記各部として機能させる、プログラム。

     
PCT/JP2022/020847 2022-05-19 2022-05-19 情報処理装置、情報処理方法、およびプログラム WO2023223507A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020847 WO2023223507A1 (ja) 2022-05-19 2022-05-19 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020847 WO2023223507A1 (ja) 2022-05-19 2022-05-19 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2023223507A1 true WO2023223507A1 (ja) 2023-11-23

Family

ID=88835028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/020847 WO2023223507A1 (ja) 2022-05-19 2022-05-19 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023223507A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021034A (ja) * 2017-07-18 2019-02-07 パイオニア株式会社 表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021034A (ja) * 2017-07-18 2019-02-07 パイオニア株式会社 表示装置

Similar Documents

Publication Publication Date Title
JP7408048B2 (ja) 人工知能に基づくアニメキャラクター駆動方法及び関連装置
CN115205949B (zh) 图像生成方法以及相关设备
CN112669417B (zh) 虚拟形象的生成方法、装置、存储介质及电子设备
KR20190126906A (ko) 돌봄 로봇을 위한 데이터 처리 방법 및 장치
TWI486904B (zh) 律動影像化方法、系統以及電腦可讀取記錄媒體
US20200374645A1 (en) Augmented reality platform for navigable, immersive audio experience
Green et al. Environmental sound monitoring using machine learning on mobile devices
WO2022170848A1 (zh) 人机交互方法、装置、系统、电子设备以及计算机介质
JP2005322125A (ja) 情報処理システム、情報処理方法、プログラム
JP2023059937A (ja) データインタラクション方法、装置、電子機器、記憶媒体、および、プログラム
CN113316078B (zh) 数据处理方法、装置、计算机设备及存储介质
JP2008299135A (ja) 音声合成装置、音声合成方法、および音声合成用プログラム
JPWO2011122521A1 (ja) 情報表示システム、情報表示方法及びプログラム
KR20160069663A (ko) 교육용 콘텐츠 제작 시스템, 제작방법, 및 그에 사용되는 서비스 서버, 저작자 단말, 클라이언트 단말
WO2023223507A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Dulyan et al. AUXie: Initial evaluation of a blind-accessible virtual museum tour
WO2022247492A1 (en) Sound effect simulation by creating virtual reality obstacle
JP7096626B2 (ja) 情報抽出装置
JP2022075661A (ja) 情報抽出装置
Zhong et al. Developing an online VR tool for participatory evaluation of animal vocal behaviours
US20240015368A1 (en) Distribution system, distribution method, and non-transitory computer-readable recording medium
McGregor et al. Using participatory visualisation of soundscapes to compare designers’ and listeners’ experiences of sound designs
JP4534014B2 (ja) 視覚障害者のための歩行訓練環境生成システム
JP7248913B2 (ja) 音声情報生成プログラム、音声再生プログラム、および音声再生装置
JP2000155589A (ja) 空間位置呈示方法および空間位置呈示プログラムを記録した記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22942711

Country of ref document: EP

Kind code of ref document: A1