JP7292765B1 - Communication controller and computer program - Google Patents

Communication controller and computer program Download PDF

Info

Publication number
JP7292765B1
JP7292765B1 JP2022109989A JP2022109989A JP7292765B1 JP 7292765 B1 JP7292765 B1 JP 7292765B1 JP 2022109989 A JP2022109989 A JP 2022109989A JP 2022109989 A JP2022109989 A JP 2022109989A JP 7292765 B1 JP7292765 B1 JP 7292765B1
Authority
JP
Japan
Prior art keywords
space
user
terminal
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022109989A
Other languages
Japanese (ja)
Other versions
JP2024008266A (en
Inventor
智之 竹下
汐音 渡邉
健太郎 高島
章弘 岸本
侑哉 村尾
慶士郎 増田
有紀奈 柴田
Original Assignee
株式会社清和ビジネス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社清和ビジネス filed Critical 株式会社清和ビジネス
Priority to JP2022109989A priority Critical patent/JP7292765B1/en
Application granted granted Critical
Publication of JP7292765B1 publication Critical patent/JP7292765B1/en
Publication of JP2024008266A publication Critical patent/JP2024008266A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】実際に特定の場所(例えば職場)に位置している人と、ネットワークを介してコミュニケーションを図ろうとしている人との間のコミュニケーションを向上させること。【解決手段】他の装置とネットワークを介して通信する通信部と、所定の位置であるスペースに設置されたスペース端末によって撮影された映像と音声とをネットワークを介して受信し、前記スペースに対して第一の状態であるユーザーのユーザー端末には前記映像を送信して前記音声は送信せず、前記スペースに対して第二の状態であるユーザーのユーザー端末には前記映像と前記音声とを送信する制御部と、を備えるコミュニケーション制御装置である。【選択図】図1An object of the present invention is to improve communication between a person who is actually located in a specific place (for example, an office) and a person who is trying to communicate via a network. A communication unit that communicates with another device via a network, and a space terminal that is installed in a space at a predetermined position. the video and the audio are not transmitted to the user terminal of the user in the first state, and the video and audio are transmitted to the user terminal of the user in the second state with respect to the space. and a control unit for transmitting. [Selection drawing] Fig. 1

Description

特許法第30条第2項適用 高島健太郎、村尾侑哉、増田慶士郎、柴田有紀奈が、令和4年3月1日 午前10時20分~11時50分に、第26回一般社団法人情報処理学会シンポジウム INTERACTION 2022のインタラクティブ発表3のオンライン会場において、コミュニケーション制御装置及びコンピュータプログラムについて、オンライン公開した。Article 30, Paragraph 2 of the Patent Act applies Kentaro Takashima, Yuya Murao, Keishiro Masuda, and Yukina Shibata will attend the 26th General Incorporated At the online venue for interactive presentation 3 of the Information Processing Society of Japan symposium INTERACTION 2022, the communication control device and computer program were released online.

特許法第30条第2項適用 高島健太郎、村尾侑哉、増田慶士郎、柴田有紀奈が、令和4年3月31日に、ウェブサイトのアドレス:http://jaist.ac.jp/~ktaka/lab/?p=196 において、コミュニケーション制御装置及びコンピュータプログラムについて公開した。Application of Article 30, Paragraph 2 of the Patent Law Kentaro Takashima, Yuya Murao, Keishiro Masuda, and Yukina Shibata, on March 31, 2022, posted a patent at the website address: http://jaist. ac. jp/~ktaka/lab/? on p=196 published a communication controller and a computer program.

特許法第30条第2項適用 株式会社清和ビジネスが、令和4年5月11日に、東京都江東区有明3-11-1の東京ビッグサイトで開催された第9回働き方改革EXPO2022において、コミュニケーション制御装置及びコンピュータプログラムについて公開した。Article 30, paragraph 2 of the Patent Act applies Seiwa Business Co., Ltd. held the 9th Work Style Reform EXPO 2022 at Tokyo Big Sight, 3-11-1 Ariake, Koto-ku, Tokyo on May 11, 2022. , published a communication control device and a computer program.

本発明は、オンラインでコミュニケーションをとることを実現するための技術に関する。 The present invention relates to technology for realizing online communication.

近年、リモートワークの普及により、職場に出勤することなく仕事をする機会が増えている。通勤が不要になることで通勤時間に相当する時間を他のことに活用することができるなどのポジティブな効果が生じている。このようなリモートワークの普及をより一層高めるために、ネットワークを介して会議を行う技術も多く提案されている。たとえば、実際の会議のように臨場感のあるリモート会議を行うことが可能な技術が提案されている(特許文献1参照)。 In recent years, due to the spread of remote work, there are more opportunities to work without going to work. Eliminating the need for commuting has produced positive effects, such as being able to use the time equivalent to commuting time for other things. In order to further increase the spread of such remote work, many techniques for holding conferences via networks have been proposed. For example, a technology has been proposed that enables a remote conference with a sense of reality like an actual conference (see Patent Literature 1).

特開2022-054192号公報JP 2022-054192 A

しかしながら、従来は職場で当然に行われていた他人とのコミュニケーションの機会が減っている。例えば、実際に職場に出勤している人と、リモートワークをしている人との間のコミュニケーションの機会が減っている。 However, opportunities for communication with others, which was conventionally taken for granted in the workplace, are decreasing. For example, opportunities for communication between people who are actually at work and those who are working remotely are decreasing.

上記事情に鑑み、本発明は、実際に特定の場所(例えば職場)に位置している人と、ネットワークを介してコミュニケーションを図ろうとしている人との間のコミュニケーションを向上させることが可能となる技術の提供を目的としている。 In view of the above circumstances, the present invention makes it possible to improve communication between a person who is actually located in a specific place (for example, a workplace) and a person who is trying to communicate via a network. The purpose is to provide technology.

本発明の一態様は、他の装置とネットワークを介して通信する通信部と、所定の位置であるスペースに設置されたスペース端末によって撮影された映像と音声とをネットワークを介して受信し、前記スペースに対して第一の状態であるユーザーのユーザー端末には前記映像を送信して前記音声は送信せず、前記スペースに対して第二の状態であるユーザーのユーザー端末には前記映像と前記音声とを送信する制御部と、を備えるコミュニケーション制御装置である。 According to one aspect of the present invention, a communication unit that communicates with another device via a network, and a space terminal that is installed in a space at a predetermined position receives video and audio captured via the network, The video and the audio are not transmitted to the user terminal of the user who is in the first state with respect to the space, and the video and the above are transmitted to the user terminal of the user who is in the second state with respect to the space. and a control unit that transmits voice.

本発明の一態様は、他の装置とネットワークを介して通信する通信部を備えたコンピューターを、所定の位置であるスペースに設置されたスペース端末によって撮影された映像と音声とをネットワークを介して受信し、前記スペースに対して第一の状態であるユーザーのユーザー端末には前記映像を送信して前記音声は送信せず、前記スペースに対して第二の状態であるユーザーのユーザー端末には前記映像と前記音声とを送信する制御部を備えるコミュニケーション制御装置として機能させるためのコンピュータープログラムである。 According to one aspect of the present invention, a computer having a communication unit that communicates with another device via a network transmits video and audio captured by a space terminal installed in a space at a predetermined position via a network. receive and transmit the video to the user terminal of the user who is in the first state with respect to the space, but not the audio, and to the user terminal of the user who is in the second state with respect to the space A computer program for functioning as a communication control device having a control unit that transmits the video and the audio.

本発明により、実際に特定の場所(例えば職場)に位置している人と、ネットワークを介してコミュニケーションを図ろうとしている人との間のコミュニケーションを向上させることが可能となる。 The present invention makes it possible to improve communication between a person who is actually located at a specific place (eg, workplace) and a person who is trying to communicate via a network.

本発明のコミュニケーションシステム100の具体例を示すシステム構成図である。1 is a system configuration diagram showing a specific example of a communication system 100 of the present invention; FIG. ユーザー端末10の機能構成の具体例を示す概略ブロック図である。2 is a schematic block diagram showing a specific example of the functional configuration of the user terminal 10; FIG. コミュニケーション制御装置20の機能構成の具体例を示す概略ブロック図である。2 is a schematic block diagram showing a specific example of the functional configuration of communication control device 20. FIG. スペース端末40の機能構成の具体例を示す概略ブロック図である。4 is a schematic block diagram showing a specific example of the functional configuration of the space terminal 40; FIG. ロケーション選択画面の具体例を示す図である。FIG. 10 is a diagram showing a specific example of a location selection screen; スペース画面の具体例を示す図である。FIG. 10 is a diagram showing a specific example of a space screen; スペースにpokeが行われた場合のスペース画面の具体例を示す。A specific example of a space screen when a poke is performed in the space is shown. スペースに所定のリアクト(ハートを示すリアクト)が行われた場合のスペース画面の具体例を示す。A specific example of the space screen when a predetermined react (react indicating a heart) is performed in the space is shown. アーカイブ画面の具体例を示す図である。FIG. 10 is a diagram showing a specific example of an archive screen;

以下、本発明の具体的な構成例について、図面を参照しながら説明する。図1は、本発明のコミュニケーションシステム100の具体例を示すシステム構成図である。コミュニケーションシステム100では、1又は複数の『ロケーション』と呼ばれる拠点が設けられる。各ロケーションには、1又は複数の『スペース』が設けられる。各ロケーションは、例えば物理的に離れた位置に設けられてもよい。各スペースは、ロケーションに比べてより短い距離の離れた位置に設けられてもよい。例えば、異なる建物に各ロケーションが設けられ、一つのロケーション(一つの建物)の中で異なるフロアや異なる部屋や異なるテーブルに各スペースが設けられてもよい。図1の例では、二つのロケーション30が設けられ、各ロケーション30内には二つのスペースが設けられる。各スペースには、1台のスペース端末40が設置される。なお、一つのスペースに複数台のスペース端末40が設置されてもよい。 Hereinafter, specific configuration examples of the present invention will be described with reference to the drawings. FIG. 1 is a system configuration diagram showing a specific example of a communication system 100 of the present invention. In the communication system 100, one or more bases called "locations" are provided. Each location is provided with one or more "spaces". Each location may be provided, for example, at a physically separate location. Each space may be provided at a shorter distance apart than the location. For example, each location may be provided in a different building, and each space may be provided in a different floor, a different room, or a different table within one location (single building). In the example of FIG. 1, two locations 30 are provided and two spaces are provided within each location 30 . One space terminal 40 is installed in each space. A plurality of space terminals 40 may be installed in one space.

コミュニケーションシステム100は、1又は複数のユーザー端末10と、コミュニケーション制御装置20と、各ロケーション30の各スペースに設置された複数のスペース端末40と、を備える。各装置は、ネットワーク50を介してデータ通信する。ネットワーク50は、無線通信を用いたネットワークであってもよいし、有線通信を用いたネットワークであってもよい。ネットワーク50は、複数のネットワークが組み合わされて構成されてもよい。 A communication system 100 includes one or more user terminals 10 , a communication control device 20 , and a plurality of space terminals 40 installed in each space of each location 30 . Each device communicates data via the network 50 . The network 50 may be a network using wireless communication or a network using wired communication. Network 50 may be configured by combining a plurality of networks.

ここで、スペースにおいて行われるコミュニケーションについて説明する。ユーザーは、各スペースに対して例えば“アクセス中”(第一の状態)、“ログイン中”(第二の状態)、“離席中”という3つの状態を持つ。 “アクセス中”という状態は、そのスペースに対してログインはしていないがアクセスはしているという状態である。“ログイン中”という状態は、そのスペースに対してアクセスし、そしてそのスペースに対してログインしているという状態である。“離席中”という状態は、そのスペースに対してアクセスすらしていないという状態である。“アクセス中”のユーザーに対しては、そのスペースにおける映像が送信されるが、そのスペースにおける音声は送信されない。“ログイン中”のユーザーに対しては、そのスペースにおける映像が送信され、そのスペースにおける音声も送信される。“離席中”のユーザーに対しては、そのスペースにおける音声も映像も送信されない。このように、各ユーザー端末10に対して送信されるスペースに関するデータ(映像や音声)は、そのスペースに対するユーザーの状態に応じて制御される。以下の説明では、あるスペースについて、“アクセス中”、“ログイン中”、“離席中”のユーザーをそれぞれ“アクセスユーザー”、“ログインユーザー”、“離席ユーザー”という。 Here, the communication that takes place in the space will be explained. For each space, the user has three states, for example, "accessing" (first state), "logging in" (second state), and "away". The state of "accessing" is a state in which the user is accessing the space although he/she has not logged in to the space. The state of "login in" is a state in which the space is accessed and logged in to the space. The state of "away" is a state in which the user has not even accessed the space. For users who are "accessing", the video in that space is sent, but the audio in that space is not sent. For users who are "logged in", the video in that space is sent, and the audio in that space is also sent. Users who are "away" will not receive audio or video in that space. In this way, the data (video and audio) related to the space transmitted to each user terminal 10 is controlled according to the state of the user for that space. In the following description, users who are "accessing", "logged in", and "away from" a certain space are referred to as "access user", "login user", and "away user", respectively.

ユーザー同士のコミュニケーションは、例えばスペースにおいて行われる。スペースにおいて行われるコミュニケーションは、物理的に存在しているスペースに実際に位置しているユーザー(以下「スペースユーザー」という。)と、スペースに対してユーザー端末10を用いてログインしているユーザー(ログインユーザー)と、スペースに対してユーザー端末10を用いてアクセスしているユーザー(アクセスユーザー)と、を含むグループの所属メンバーで行われる。スペースユーザーの映像や音声は、その位置に設置されているスペース端末40によって取得される。スペース端末40によって取得された映像は、そのスペースのログインユーザー及びアクセスユーザーのユーザー端末10に対して送信される。ただし、取得された音声は、そのスペースのログインユーザーのユーザー端末10に対してのみ送信され、そのスペースにログインしていないユーザー(アクセスユーザー及び離席ユーザー)に対しては送信されない。このように、スペースに対して行われる行為として、アクセスとログインとがある。 Communication between users takes place, for example, in a space. Communication that takes place in the space is between users who are actually located in the space that physically exists (hereinafter referred to as "space users") and users who have logged into the space using user terminals 10 ( This is performed by members belonging to a group that includes a login user) and a user accessing the space using the user terminal 10 (access user). The video and audio of the space user are acquired by the space terminal 40 installed at that position. The video acquired by the space terminal 40 is transmitted to the user terminals 10 of the login users and access users of the space. However, the acquired voice is transmitted only to the user terminal 10 of the logged-in user of the space, and is not transmitted to users (accessing users and leaving users) who have not logged into the space. As described above, actions performed on the space include access and login.

図2は、ユーザー端末10の機能構成の具体例を示す概略ブロック図である。ユーザー端末10は、例えばスマートフォン、タブレット、パーソナルコンピューター、携帯ゲーム機、据え置き型ゲーム機、専用機器などの情報機器を用いて構成される。ユーザー端末10は、通信部11、操作部12、表示部13、撮像部14、音声入力部15、音声出力部16、記憶部17及び制御部18を備える。 FIG. 2 is a schematic block diagram showing a specific example of the functional configuration of the user terminal 10. As shown in FIG. The user terminal 10 is configured using information equipment such as a smart phone, tablet, personal computer, portable game machine, stationary game machine, and dedicated equipment. The user terminal 10 includes a communication section 11 , an operation section 12 , a display section 13 , an imaging section 14 , an audio input section 15 , an audio output section 16 , a storage section 17 and a control section 18 .

通信部11は、通信機器である。通信部11は、例えばネットワークインターフェースとして構成されてもよい。通信部11は、制御部18の制御に応じて、ネットワーク50を介して他の装置とデータ通信する。通信部11は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。 The communication unit 11 is a communication device. The communication unit 11 may be configured as a network interface, for example. The communication unit 11 performs data communication with other devices via the network 50 under the control of the control unit 18 . The communication unit 11 may be a device that performs wireless communication, or may be a device that performs wired communication.

操作部12は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部12は、ユーザーの指示をユーザー端末10に入力する際にユーザーによって操作される。操作部12は、入力装置をユーザー端末10に接続するためのインターフェースであっても良い。この場合、操作部12は、入力装置においてユーザーの入力に応じ生成された入力信号をユーザー端末10に入力する。操作部12は、マイク及び音声認識装置を用いて構成されてもよい。この場合、操作部12はユーザーによって発話された文言を音声認識し、認識結果の文字列情報をユーザー端末10に入力する。操作部12は、ユーザーの指示をユーザー端末10に入力可能な構成であればどのように構成されてもよい。 The operation unit 12 is configured using existing input devices such as a keyboard, pointing device (mouse, tablet, etc.), buttons, touch panel, and the like. The operation unit 12 is operated by the user when inputting user instructions to the user terminal 10 . The operation unit 12 may be an interface for connecting an input device to the user terminal 10 . In this case, the operation unit 12 inputs to the user terminal 10 an input signal generated according to the user's input in the input device. The operation unit 12 may be configured using a microphone and a voice recognition device. In this case, the operation unit 12 performs voice recognition of the words uttered by the user, and inputs the character string information of the recognition result to the user terminal 10 . The operation unit 12 may be configured in any way as long as it is configured to allow the user's instructions to be input to the user terminal 10 .

表示部13は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部13は、コミュニケーション制御装置20から送信される画像データを表示する。表示部13は、画像表示装置をユーザー端末10に接続するためのインターフェースであっても良い。この場合、表示部13は、画像データを表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。 The display unit 13 is an image display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. The display unit 13 displays image data transmitted from the communication control device 20 . The display unit 13 may be an interface for connecting an image display device to the user terminal 10 . In this case, the display unit 13 generates a video signal for displaying image data, and outputs the video signal to an image display device connected thereto.

撮像部14は、カメラを用いて構成される。撮像部14は、カメラそのものとして構成されてもよいし、外部機器としてカメラをユーザー端末10に接続するためのインターフェースとして構成されてもよい。カメラは、その位置に応じて所定の空間を撮像する。カメラは、ユーザー端末10を使用しているユーザーの顔を撮像可能な位置に設けられることが好ましい。例えば、表示部13を見るユーザーの顔を撮像できるようにカメラが設けられてもよい。撮像部14は、カメラによって撮像された画像のデータを制御部18に出力する。 The imaging unit 14 is configured using a camera. The imaging unit 14 may be configured as a camera itself, or may be configured as an interface for connecting a camera as an external device to the user terminal 10 . The camera images a predetermined space according to its position. The camera is preferably provided at a position where the face of the user using the user terminal 10 can be imaged. For example, a camera may be provided so as to capture the face of the user viewing the display unit 13 . The imaging unit 14 outputs data of an image captured by the camera to the control unit 18 .

音声入力部15は、マイクを用いて構成される。音声入力部15は、マイクそのものとして構成されてもよいし、外部機器としてマイクをユーザー端末10に接続するためのインターフェースとして構成されてもよい。マイクは、会話を行うユーザーの発話音声を取得する。音声入力部15は、マイクによって取得された音声のデータを制御部18に出力する。 The voice input unit 15 is configured using a microphone. The voice input unit 15 may be configured as a microphone itself, or may be configured as an interface for connecting a microphone as an external device to the user terminal 10 . The microphone picks up the voice of the user who is having a conversation. The voice input unit 15 outputs voice data acquired by the microphone to the control unit 18 .

音声出力部16は、スピーカーやヘッドホンやイヤホン等の音声出力装置を用いて構成される。音声出力部16は、音声出力装置そのものとして構成されてもよいし、外部機器として音声出力装置をユーザー端末10に接続するためのインターフェースとして構成されてもよい。音声出力装置は、会話を行うユーザーが音声を聞き取ることができるように音声を出力することが望ましい。音声出力部16は、制御部18によって出力される音声信号に応じた音声を出力する。 The audio output unit 16 is configured using an audio output device such as a speaker, headphones, or earphones. The audio output unit 16 may be configured as an audio output device itself, or may be configured as an interface for connecting an audio output device as an external device to the user terminal 10 . It is desirable that the audio output device output audio so that the user who is having a conversation can hear the audio. The audio output unit 16 outputs audio according to the audio signal output by the control unit 18 .

記憶部17は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部17は、制御部18によって使用されるデータを記憶する。記憶部17は、例えばユーザー情報記憶部171として機能してもよい。 The storage unit 17 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 17 stores data used by the control unit 18 . The storage unit 17 may function as the user information storage unit 171, for example.

ユーザー情報記憶部171は、ユーザー端末10を操作するユーザーに関する情報(以下「ユーザー情報」という。)を記憶する。ユーザー情報は、例えばユーザーのIDの情報を含んでもよい。また、ユーザー情報は、ユーザーのハンドルネーム、ユーザーのアイコンデータ、ユーザーの属性情報、ユーザーのプロフィールの情報、ユーザーのプレゼンス情報を含んでもよい。ハンドルネームとは、ユーザーがコミュニケーションシステム100において会話を行う際に使用する名前(ニックネーム又は本名)である。アイコンデータとは、ユーザーがコミュニケーションシステム100において会話を行う際に使用する画像データである。属性情報は、例えばユーザーの年齢、性別、出身地、趣味、使用しているSNSアプリケーション、所属に関する情報を含んでもよい。プレゼンス情報とは、ユーザーの現在の状態を示す情報である。現在の状態とは、例えばユーザーが他のユーザーとコミュニケーションを取ることが可能であるか否かに関連する情報であってもよい。より具体的には、ユーザーが多忙であること、ユーザーが離席していること、ユーザーが他者からの呼びかけにすぐに応えられる状態であること、などがプレゼンス情報の具体例として定義されてもよい。プレゼンス情報は、ユーザーが自由に設定可能に構成されてもよい。 The user information storage unit 171 stores information about the user who operates the user terminal 10 (hereinafter referred to as “user information”). User information may include, for example, user ID information. The user information may also include a user's handle name, user's icon data, user's attribute information, user's profile information, and user's presence information. A handle name is a name (nickname or real name) that a user uses when having a conversation in the communication system 100 . Icon data is image data used when a user converses in communication system 100 . The attribute information may include, for example, the user's age, sex, hometown, hobby, SNS application being used, and information on affiliation. Presence information is information that indicates the current status of a user. A current state may be, for example, information relating to whether the user is available to communicate with other users. More specifically, specific examples of presence information are defined such as that the user is busy, that the user is away from the desk, and that the user is ready to respond to calls from others. good too. Presence information may be configured to be freely configurable by the user.

制御部18は、CPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。制御部18は、プロセッサーがプログラムを実行することによって、表示制御部181、スペース制御部182、会話制御部183及び行動制御部184として機能する。なお、制御部18の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。 The control unit 18 is configured using a processor such as a CPU (Central Processing Unit) and a memory. The control unit 18 functions as a display control unit 181, a space control unit 182, a conversation control unit 183, and an action control unit 184 by the processor executing programs. All or part of each function of the control unit 18 may be implemented using hardware such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or an FPGA (Field Programmable Gate Array). The above program may be recorded on a computer-readable recording medium. Computer-readable recording media include portable media such as flexible disks, magneto-optical disks, ROMs, CD-ROMs, semiconductor storage devices (such as SSD: Solid State Drives), hard disks and semiconductor storage built into computer systems. It is a storage device such as a device. The above program may be transmitted via telecommunication lines.

表示制御部181は、通信部11を介してコミュニケーション制御装置20から表示情報を受信する。表示制御部181は、取得された表示情報に基づいて画像信号を生成し、表示部13に表示させる。表示情報は、例えば表示される画像そのものを示す画像データであってもよい。この場合、画像データを生成する主体はコミュニケーション制御装置20の表示情報生成部233である。表示情報は、例えば表示される画像を生成するために必要となるデータ(例えば、参加しているユーザーに関する情報と、スペース端末40によって撮影された映像)であってもよい。この場合、表示制御部181は、表示情報に基づいて、表示部13に表示するための画像データを生成する。この場合、画像データを生成する主体は表示制御部181である。また、表示制御部181は、自装置のユーザーがログインユーザーであって、且つ、自装置のユーザーが映像を送信することを許可する操作を行っている場合(例えばカメラをオンにする設定を行っている場合)には、撮像部14によって撮像された映像をコミュニケーション制御装置20に送信する。表示制御部181は、自装置のユーザーがアクセスユーザーである場合や、自装置のユーザーがログインユーザーであっても映像を送信することを許可していない場合には、撮像部14によって撮像された映像はコミュニケーション制御装置20に送信しない。 The display control unit 181 receives display information from the communication control device 20 via the communication unit 11 . The display control unit 181 generates an image signal based on the acquired display information, and causes the display unit 13 to display the image signal. The display information may be, for example, image data representing the displayed image itself. In this case, it is the display information generator 233 of the communication control device 20 that generates the image data. The display information may be, for example, data needed to generate the displayed image (eg, information about participating users and video captured by the space terminal 40). In this case, the display control unit 181 generates image data to be displayed on the display unit 13 based on the display information. In this case, it is the display control unit 181 that generates the image data. The display control unit 181 also controls the display control unit 181 when the user of the own device is a logged-in user and the user of the own device has performed an operation to allow video transmission (for example, when the camera is turned on). ), the image captured by the imaging unit 14 is transmitted to the communication control device 20 . When the user of the device itself is an access user, or when the user of the device itself is a logged-in user but is not permitted to transmit an image, the display control unit 181 controls the image captured by the image capturing unit 14. The video is not transmitted to the communication control device 20.

スペース制御部182は、コミュニケーション制御装置20を介してコミュニケーションがとられる際に使用される場所であるスペースに関する制御を行う。具体的には、スペース制御部182は、スペースに対するアクセス、スペースに対するログイン、スペースからの離席、に関する処理を行う。例えば、ユーザーが操作部12を操作することによってスペースへアクセスすることを指示した場合には、スペース制御部182は、指定されたスペースにアクセスするための処理を行う。具体的には、スペース制御部182は、指定されたスペースへのアクセスをリクエストするための情報(ユーザーの識別情報を含む)をコミュニケーション制御装置20に送信する。例えば、ユーザーが操作部12を操作することによってスペースへログインすることを指示した場合には、スペース制御部182は、指定されたスペースにログインするための処理を行う。具体的には、スペース制御部182は、指定されたスペースへのログインをリクエストするための情報(ユーザーの識別情報を含む)をコミュニケーション制御装置20に送信する。 The space control unit 182 controls spaces that are used when communication is performed via the communication control device 20 . Specifically, the space control unit 182 performs processing related to access to the space, login to the space, and leaving the space. For example, when the user instructs to access a space by operating the operation unit 12, the space control unit 182 performs processing for accessing the designated space. Specifically, space control unit 182 transmits information (including user identification information) for requesting access to the designated space to communication control device 20 . For example, when the user instructs to log in to a space by operating the operation unit 12, the space control unit 182 performs processing for logging in to the designated space. Specifically, the space control unit 182 transmits information (including user identification information) for requesting login to the specified space to the communication control device 20 .

会話制御部183は、少なくともユーザーがログインしているスペースのスペースユーザーとの間で行われる会話に関する制御を行う。ユーザー端末10のユーザーとスペースユーザーとの会話は、ユーザー端末10のユーザーがいずれか1つのスペースにログインすることで実現される。会話制御部183は、ユーザーがログインしているスペースの他のログインユーザーとの間で行われる会話に関する制御をさらに行ってもよい。 The conversation control unit 183 controls at least a conversation with a space user of a space logged in by the user. A conversation between the user of the user terminal 10 and the space user is realized when the user of the user terminal 10 logs into one of the spaces. The conversation control unit 183 may further control conversations with other logged-in users of the space in which the user is logged in.

会話制御部183は、例えば音声入力部15から入力された音声データを、通信部11を介してコミュニケーション制御装置20へ送信する。会話制御部183は、コミュニケーション制御装置20から音声データを受信すると、受信された音声データを音声出力部16から出力する。なお、会話制御部183は、自装置のユーザーがアクセスユーザーである場合や離席ユーザーである場合には、音声入力部15から入力された音声データをコミュニケーション制御装置20へ送信しない。 The conversation control unit 183 transmits, for example, voice data input from the voice input unit 15 to the communication control device 20 via the communication unit 11 . Upon receiving voice data from the communication control device 20 , the conversation control unit 183 outputs the received voice data from the voice output unit 16 . Note that the conversation control unit 183 does not transmit the voice data input from the voice input unit 15 to the communication control device 20 when the user of the own device is the access user or the away user.

行動制御部184は、ユーザーが所定のスペース又は所定のユーザーに対して行う行動について制御する。ユーザーが行う行動には、例えば“poke”と“リアクト”がある。“poke”は、対象となるユーザー又はスペースに対して、自身の存在に気づいてもらうための行動である。“poke”が行われると、“リアクト”に比べて相対的に相手に与える影響が小さい出力がユーザー端末10又はスペース端末40によって行われる。例えば、“poke”が行われると、短時間の音が出力され、所定の画像が画面に表示される。“リアクト”は、対象となるユーザー又はスペースに対して、自身の感情を示すための行動である。“リアクト”が行われると、“poke”に比べて相対的に相手に与える影響が大きい出力がユーザー端末10又はスペース端末40によって行われる。例えば、“リアクト”には複数の種類が設けられてもよい。例えば“ハート”のリアクトが行われると、数秒~10秒程度の長さの音が出力され、所定のパターンで複数のハートの画像が画面に表示される。行動制御部184は、ユーザーによって指定された行動を示す情報をコミュニケーション制御装置20に送信する。 The action control unit 184 controls actions that the user performs in a predetermined space or in a predetermined user. Actions performed by the user include, for example, "poke" and "react". "poke" is an action to make the target user or space aware of one's existence. When "poke" is performed, the user terminal 10 or the space terminal 40 outputs an output that has relatively less influence on the other party than "react". For example, when "poke" is performed, a short sound is output and a predetermined image is displayed on the screen. A "react" is an action to express one's emotions to a target user or space. When "react" is performed, the user terminal 10 or the space terminal 40 outputs an output that has a relatively large impact on the other party compared to "poke". For example, "react" may be provided with a plurality of types. For example, when a "heart" react is performed, a sound with a length of about several seconds to 10 seconds is output, and a plurality of heart images are displayed on the screen in a predetermined pattern. The behavior control unit 184 transmits information indicating the behavior specified by the user to the communication control device 20 .

図3は、コミュニケーション制御装置20の機能構成の具体例を示す概略ブロック図である。コミュニケーション制御装置20は、例えばパーソナルコンピューターやサーバー装置などの情報処理装置を用いて構成される。コミュニケーション制御装置20は、通信部21、記憶部22及び制御部23を備える。 FIG. 3 is a schematic block diagram showing a specific example of the functional configuration of the communication control device 20. As shown in FIG. The communication control device 20 is configured using an information processing device such as a personal computer or a server device, for example. The communication control device 20 includes a communication section 21 , a storage section 22 and a control section 23 .

通信部21は、通信機器である。通信部21は、例えばネットワークインターフェースとして構成されてもよい。通信部21は、制御部23の制御に応じて、ネットワーク50を介して他の装置とデータ通信する。通信部21は、無線通信を行う装置であってもよいし、有線通信を行う装置であってもよい。 The communication unit 21 is a communication device. The communication unit 21 may be configured as a network interface, for example. The communication unit 21 performs data communication with other devices via the network 50 under the control of the control unit 23 . The communication unit 21 may be a device that performs wireless communication, or may be a device that performs wired communication.

記憶部22は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部22は、制御部23によって使用されるデータを記憶する。記憶部22は、例えばユーザー情報記憶部221及びスペース情報記憶部222として機能してもよい。ユーザー情報記憶部221は、ユーザー端末10を操作する複数のユーザーに関する情報(ユーザー情報)を記憶する。ユーザー情報記憶部221は、さらにそのユーザーがコミュニケーションシステム100においてフォローしている他のユーザーを示す識別情報を記憶してもよい。ユーザー情報記憶部221は、さらに各ユーザーの状態を示す情報を記憶する。ユーザーの状態とは、例えば“アクセス中”、“ログイン中”、“離席中”という状態である。ユーザー情報記憶部171は、ユーザーの状態を示す情報として、“アクセス中”である場合にはアクセス先のスペースを示す情報も記憶し、“ログイン中”である場合にはログイン先のスペースを示す情報も記憶する。 The storage unit 22 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. Storage unit 22 stores data used by control unit 23 . The storage unit 22 may function as a user information storage unit 221 and a space information storage unit 222, for example. The user information storage unit 221 stores information (user information) about multiple users who operate the user terminal 10 . The user information storage unit 221 may also store identification information indicating other users that the user is following in the communication system 100 . The user information storage unit 221 also stores information indicating the status of each user. The user's status is, for example, "accessing", "logging in", or "away". As information indicating the user status, the user information storage unit 171 also stores information indicating the space to be accessed in the case of "accessing", and indicates the space to be logged in in the case of "logging in". It also stores information.

スペース情報記憶部222は、スペースに関する情報(以下「スペース情報」という。)を記憶する。スペース情報は、例えばそのスペースのID、そのスペースに現在アクセスしているユーザーの識別情報、そのスペースに現在ログインしているユーザーの識別情報、を含んでもよい。 The space information storage unit 222 stores information about spaces (hereinafter referred to as “space information”). Space information may include, for example, the ID of the space, the identity of the user currently accessing the space, and the identity of the user currently logged into the space.

制御部23は、CPU等のプロセッサーとメモリーとを用いて構成される。制御部23は、プロセッサーがプログラムを実行することによって、ユーザー制御部231、スペース制御部232、表示情報生成部233、会話制御部234及び行動制御部235として機能する。なお、制御部23の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。 The control unit 23 is configured using a processor such as a CPU and a memory. The control unit 23 functions as a user control unit 231, a space control unit 232, a display information generation unit 233, a conversation control unit 234, and an action control unit 235 by the processor executing programs. All or part of each function of the control unit 23 may be realized using hardware such as ASIC, PLD, FPGA, or the like. The above program may be recorded on a computer-readable recording medium. Computer-readable recording media include portable media such as flexible disks, magneto-optical disks, ROMs, CD-ROMs, semiconductor storage devices (such as SSD), and storage devices such as hard disks and semiconductor storage devices built into computer systems. It is a device. The above program may be transmitted via telecommunication lines.

ユーザー制御部231は、ユーザーに関する制御処理を行う。例えば、ユーザー制御部231は、コミュニケーション制御装置20にアクセスしてくるユーザー端末10についてログインのための処理(例えば認証処理)を行ってもよい。ユーザー制御部231は、ユーザー端末10から受信されたユーザー情報をユーザー情報記憶部221に登録してもよい。 The user control unit 231 performs control processing related to users. For example, the user control unit 231 may perform login processing (for example, authentication processing) for the user terminal 10 accessing the communication control device 20 . The user control section 231 may register the user information received from the user terminal 10 in the user information storage section 221 .

スペース制御部182は、ユーザー端末10を用いたユーザーの各スペースに対する状態を制御する。スペース制御部182は、スペースに対して行われるアクセスとログインと離席とを制御する。例えば、指定されたスペースへのアクセスをリクエストするための情報をユーザー端末10から受信した場合、スペース制御部182は、そのユーザーを指定されたスペースにアクセスさせる。この場合、スペース制御部182は、スペース情報記憶部222において、このユーザーが指定されたスペースにアクセス中であることを記録する。例えば、指定されたスペースへのログインをリクエストするための情報をユーザー端末10から受信した場合、スペース制御部182は、そのユーザーを指定されたスペースにログインさせる。この場合、スペース制御部182は、スペース情報記憶部222において、このユーザーが指定されたスペースにログイン中であることを記録する。 The space control unit 182 controls the state of each space of the user using the user terminal 10 . The space control unit 182 controls access, login, and leaving of the space. For example, when information for requesting access to a specified space is received from the user terminal 10, the space control unit 182 allows the user to access the specified space. In this case, the space control unit 182 records in the space information storage unit 222 that the user is accessing the designated space. For example, when information for requesting login to a specified space is received from the user terminal 10, the space control unit 182 causes the user to log in to the specified space. In this case, the space control unit 182 records in the space information storage unit 222 that this user is logging in to the specified space.

表示情報生成部233は、ユーザー端末10及びスペース端末40において表示される画像の生成に必要となる情報(表示情報)を生成する。表示情報は、例えば対象となるスペースに関する情報や、そのスペースにログインしている各ユーザー端末10のユーザーに関する情報や、そのスペースにアクセスしている各ユーザー端末10のユーザーに関する情報を含んでもよい。 The display information generation unit 233 generates information (display information) necessary for generating images displayed on the user terminal 10 and the space terminal 40 . The display information may include, for example, information about the target space, information about the user of each user terminal 10 logging into the space, and information about the user of each user terminal 10 accessing the space.

表示情報生成部233は、ネットワーク50を介して、各スペース端末40によって撮影された映像のデータを受信する。表示情報生成部233は、ネットワーク50を介して、各ログインユーザーのユーザー端末10によって撮影された映像のデータを受信する。表示情報は、そのスペースのスペース端末40によって撮影された映像のデータを含んでもよい。表示情報は、そのスペースのログインユーザーのユーザー端末10によって撮影された映像のデータを含んでもよい。表示情報生成部233は、生成された表示情報を、ユーザー端末10に対して送信する。 The display information generation unit 233 receives data of images shot by each space terminal 40 via the network 50 . The display information generation unit 233 receives, via the network 50, video data captured by the user terminal 10 of each logged-in user. The display information may include video data captured by the space terminal 40 in that space. The display information may include video data captured by the user terminal 10 of the logged-in user of the space. The display information generator 233 transmits the generated display information to the user terminal 10 .

会話制御部234は、ログインユーザーのユーザー端末10及びスペース端末40から音声データを受信する。受信される音声データは、各端末の音声入力部によって取得された周囲の音響や音声を示すデータである。会話制御部234は、ログインユーザーのユーザー端末10とスペース端末40に対して出力されるべき音声データ(以下「会話音声データ」という。)を生成し、ログインユーザーのユーザー端末10とスペース端末40とに会話音声データを送信する。会話音声データは、例えばログインユーザーのユーザー端末10に対して入力された音声と、スペース端末40に対して入力された音声と、を合わせた音声データであってもよい。このように会話音声データが生成されることによって、そのスペースの各ログインユーザーとスペースユーザーとの間で音声の会話によるコミュニケーションを図ることが可能となる。 The conversation control unit 234 receives voice data from the user terminal 10 and the space terminal 40 of the logged-in user. The received audio data is data indicating ambient sounds and voices acquired by the audio input unit of each terminal. The conversation control unit 234 generates voice data to be output to the login user's user terminal 10 and the space terminal 40 (hereinafter referred to as "conversation voice data"), and controls the login user's user terminal 10 and the space terminal 40. Send conversation voice data to The conversation voice data may be, for example, voice data obtained by combining the voice input to the user terminal 10 of the logged-in user and the voice input to the space terminal 40 . By generating conversation voice data in this way, it becomes possible to achieve communication by voice conversation between each logged-in user of the space and the space user.

行動制御部235は、ユーザー端末10又はスペース端末40から行動を示す情報を受信する。行動制御部235は、受信された行動を示す情報に基づいて、指定された行動(例えば“poke”や“リアクト”)に応じた表示や音声を、そのスペースの表示情報や会話音声データに付加する。スペースに対して行動が行われた場合には、そのスペースのログインユーザーのユーザー端末10とスペース端末40の全てに対して行動に応じた表示や音声が送信されてもよい。個別のユーザーに対して行動が行われた場合には、そのユーザーのユーザー端末10に対して行動に応じた表示や音声が送信されてもよい。この場合、行動を行ったユーザーのユーザー端末10に対しても、行動に応じた表示や音声が送信されてもよい。 The behavior control unit 235 receives information indicating behavior from the user terminal 10 or the space terminal 40 . The action control unit 235 adds display and voice corresponding to the specified action (for example, “poke” and “react”) to the display information and conversation voice data of the space based on the received information indicating the action. do. When an action is performed in a space, a display or sound corresponding to the action may be transmitted to all of the user terminals 10 and space terminals 40 of the logged-in users of that space. When an action is performed for an individual user, a display or sound corresponding to the action may be transmitted to the user terminal 10 of that user. In this case, a display or sound corresponding to the action may be transmitted to the user terminal 10 of the user who performed the action.

図4は、スペース端末40の機能構成の具体例を示す概略ブロック図である。スペース端末40は、例えばスマートフォン、タブレット、パーソナルコンピューター、据え置き型ゲーム機、専用機器などの情報機器を用いて構成される。スペース端末40は、複数人で共有して画面を見ることが可能となるような大きな画像表示装置を備えていることが望ましい。スペース端末40は、通信部41、操作部42、表示部43、撮像部44、音声入力部45、音声出力部46、記憶部47及び制御部48を備える。スペース端末40は、基本的にはユーザー端末10と同様の動作をする。スペース端末40は、例えば複数のユーザー(スペースユーザー)によって共用される点、自装置が設置されているスペースにログインした状態で使用される点、でユーザー端末10と異なる。 FIG. 4 is a schematic block diagram showing a specific example of the functional configuration of the space terminal 40. As shown in FIG. The space terminal 40 is configured using an information device such as a smart phone, tablet, personal computer, stationary game machine, or dedicated device. The space terminal 40 preferably has a large image display device that allows multiple people to share and view the screen. The space terminal 40 includes a communication section 41 , an operation section 42 , a display section 43 , an imaging section 44 , an audio input section 45 , an audio output section 46 , a storage section 47 and a control section 48 . The space terminal 40 basically operates in the same manner as the user terminal 10 . The space terminal 40 differs from the user terminal 10 in that it is shared by, for example, a plurality of users (space users) and that it is used while logged into the space in which its own device is installed.

次に、ユーザー端末10又はスペース端末40に表示される画面について説明する。図5は、ロケーション選択画面の具体例を示す図である。ユーザー端末10には、コミュニケーションシステム100にログインした際に初期の画面としてロケーション選択画面が表示されてもよい。図5の例では、選択可能なロケーションとして、第一ロケーションと第二ロケーションとが表示されている。第一ロケーションに対応する画像として、複数のロケーションサムネイル画像91が表示されている。 Next, screens displayed on the user terminal 10 or the space terminal 40 will be described. FIG. 5 is a diagram showing a specific example of the location selection screen. A location selection screen may be displayed on the user terminal 10 as an initial screen when logging into the communication system 100 . In the example of FIG. 5, a first location and a second location are displayed as selectable locations. A plurality of location thumbnail images 91 are displayed as images corresponding to the first location.

各ロケーションサムネイル画像91は、それぞれ異なる時刻でスペース端末40によって撮影された画像である。例えば、各ロケーションサムネイル画像91は、所定の周期(例えば15分おき、30分おきなど)で撮影された画像であってもよい。ロケーションサムネイル画像91を撮影するスペース端末40は、そのロケーションに属しているスペースに設置されたスペース端末40である。例えば、第一ロケーションのロケーションサムネイル画像91は、第一スペースのスペース端末40か、第二スペースのスペース端末40によって撮影される。全てのロケーションサムネイル画像91が同一のスペース端末40によって撮影されてもよい。ユーザー端末10におけるユーザーの操作に応じて、全体が表示されるロケーションサムネイル画像91(91_3)の内容が変更されてもよい。例えば、いわゆるリボルバー状に表示された複数のロケーションサムネイル画像91が、ユーザーの操作に応じて上から下へ、又は下から上へ画像が移動して表示されてもよい。このように表示されることによって、そのロケーション(図5では第一ロケーション)において異なる時刻にどのような状態なっていたかを容易に閲覧することが可能となる。第二ロケーションのロケーションサムネイル画像91(91_6)は、所定の画像が表示される。 Each location thumbnail image 91 is an image captured by the space terminal 40 at different times. For example, each location thumbnail image 91 may be an image captured at predetermined intervals (for example, every 15 minutes, every 30 minutes, etc.). The space terminal 40 capturing the location thumbnail image 91 is the space terminal 40 installed in the space belonging to the location. For example, the location thumbnail image 91 of the first location is captured by the space terminal 40 of the first space or the space terminal 40 of the second space. All location thumbnail images 91 may be captured by the same space terminal 40 . The content of the location thumbnail image 91 (91_3) whose entirety is displayed may be changed according to the user's operation on the user terminal 10. FIG. For example, a plurality of location thumbnail images 91 displayed in a so-called revolver shape may be displayed by moving the images from top to bottom or from bottom to top according to the user's operation. By displaying in this way, it is possible to easily browse what kind of state the location (the first location in FIG. 5) was at different times. A predetermined image is displayed as the location thumbnail image 91 (91_6) of the second location.

ロケーション選択画面においていずれか一つのロケーションが選択されると、ユーザー端末10のスペース制御部182は、そのロケーションにアクセスすることを示す情報をコミュニケーション制御装置20に送信する。コミュニケーション制御装置20のスペース制御部232は、選択されたロケーションに位置するスペースのうち、予め定められた初期スペースにユーザーをアクセスさせてもよい。また、コミュニケーション制御装置20のスペース制御部232は、ロケーションを選択したユーザーに対し、アクセス先となるスペースを選択させてもよい。 When any one location is selected on the location selection screen, the space control unit 182 of the user terminal 10 transmits information indicating access to that location to the communication control device 20 . The space control unit 232 of the communication control device 20 may allow the user to access a predetermined initial space among spaces located at the selected location. Also, the space control unit 232 of the communication control device 20 may allow the user who has selected the location to select the space to be accessed.

ユーザーのアクセス先となるスペースが決定すると、表示情報生成部233は、アクセス先となっているスペースに関する表示情報を、アクセス中のユーザー端末10に送信する。ユーザー端末10の表示制御部181は、スペースにアクセスしている際に表示される画面(以下「スペース画面」という。)を表示する。なお、スペース画面は、そのスペースにログインしているユーザーのユーザー端末10にも送信されるし、そのスペースのスペース端末40にも送信され、それぞれの端末で表示される。 When the space to be accessed by the user is determined, the display information generation unit 233 transmits the display information regarding the space to be accessed to the user terminal 10 currently accessing. The display control unit 181 of the user terminal 10 displays a screen (hereinafter referred to as "space screen") displayed when accessing the space. The space screen is transmitted to the user terminal 10 of the user who has logged in to the space, and is also transmitted to the space terminal 40 of the space and displayed on each terminal.

図6は、スペース画面の具体例を示す図である。ユーザー端末10の表示部13の表示画面131には、図6に示すようなスペース画面が表示されてもよい。図6の例では、スペース画面は横に4つの領域が並んで表示されている。 FIG. 6 is a diagram showing a specific example of the space screen. A space screen as shown in FIG. 6 may be displayed on the display screen 131 of the display unit 13 of the user terminal 10 . In the example of FIG. 6, the space screen displays four areas side by side.

スペース画面の一番左の領域には、複数のロケーションサムネイル画像92が表示されている。ロケーションサムネイル画像92(92_1,92_2)は、ユーザーがアクセスしているロケーションのロケーションサムネイル画像92や、他のロケーションのロケーションサムネイル画像92を含む。ユーザーがこのロケーションサムネイル画像92を選択操作することによって、ユーザーは選択した対象のロケーションへアクセスすることができる。すなわち、ユーザー端末10のスペース制御部182は、このような操作に応じて、選択されたロケーションにアクセスすることを示す情報をコミュニケーション制御装置20に送信する。 A plurality of location thumbnail images 92 are displayed in the leftmost area of the space screen. The location thumbnail images 92 (92_1, 92_2) include location thumbnail images 92 of the location that the user is accessing and location thumbnail images 92 of other locations. By the user selecting and operating this location thumbnail image 92, the user can access the selected target location. That is, the space control unit 182 of the user terminal 10 transmits information indicating access to the selected location to the communication control device 20 in response to such an operation.

スペース画面の左から2番目の領域には、映像及び音声を用いたコミュニケーションが行われているスペースを示す“映像チャネル”の情報と、音声を用いたコミュニケーションが行われているスペースを示す“音声チャネル”の情報と、アーカイブの情報と、がそれぞれ表示されている。 In the second area from the left of the space screen, there are "video channel" information indicating the space where communication using video and voice is taking place, and "audio channel" information indicating the space where communication using voice is taking place. Channel" information and archive information are displayed.

スペース画面の左から三番目の領域は、映像表示領域94として用いられる。映像表示領域94には、そのスペースのスペース端末40によって撮影されている映像が動画像として表示される。ネットワーク等の遅延は生じるものの、その時点で最新のリアルタイムな映像が映像表示領域94に表示される。アクセスユーザーやログインユーザーは、映像表示領域94に表示されている映像を見ることによって、スペースの現在の状況(例えばスペースに位置しているスペースユーザーの状況)を知ることが可能となる。 The third area from the left of the space screen is used as an image display area 94 . In the video display area 94, video captured by the space terminal 40 in that space is displayed as a moving image. Although network delays occur, the latest real-time video is displayed in the video display area 94 at that time. An access user and a login user can know the current situation of the space (for example, the situation of the space users located in the space) by viewing the video displayed in the video display area 94 .

映像表示領域94には、そのスペースにログインしているログインユーザーのサムネイル画像93が表示されてもよい。例えば、映像表示領域94の左上の所定の領域に、ログインユーザーのサムネイル画像93が表示されてもよい。図6の例では、ユーザー名が“AAA”であるユーザーのサムネイル画像93_1と、ユーザー名が“BBB”であるユーザーのサムネイル画像93_2と、が表示されている。 In the video display area 94, thumbnail images 93 of login users who have logged in to the space may be displayed. For example, a thumbnail image 93 of the logged-in user may be displayed in a predetermined upper left area of the video display area 94 . In the example of FIG. 6, a thumbnail image 93_1 of a user whose user name is "AAA" and a thumbnail image 93_2 of a user whose user name is "BBB" are displayed.

スペース画面の左から4番目の領域は、メンバーズ領域として用いられる。メンバーズ領域には、複数のユーザーの情報が表示される。ユーザーの情報として、各ユーザーのサムネイル画像95と、各ユーザーのユーザー名とが表示されている。ユーザーの情報の付近には、そのユーザーに対して“poke”を行う際に使用されるpokeボタン96が表示される。 The fourth area from the left of the space screen is used as the members area. Information of multiple users is displayed in the members area. As user information, a thumbnail image 95 of each user and the user name of each user are displayed. A poke button 96 used to "poke" the user is displayed near the user's information.

メンバーズ領域には、このスペースのログインユーザー、このスペースのアクセスユーザー、離席ユーザーの各ユーザーの情報が表示されてもよい。離席ユーザーには、このスペースのロケーションにはアクセスしている(例えば同じロケーションの他のスペースにアクセス又はログインしている状態)ユーザーと、他のロケーションにアクセスしているユーザーと、そもそもコミュニケーションシステム100にログインしていないユーザーとが含まれる。 In the member's area, the information of each user of the logged-in user of this space, the access user of this space, and the absent user may be displayed. Away users include users who are accessing this space's location (e.g., accessing or logged into other spaces in the same location), users who are accessing other locations, and the communication system in the first place. 100 includes users who are not logged in.

ある種別のユーザーは、他の種別のユーザーと異なる態様で画像や文字が表示されてもよい。例えば、このスペースのログインユーザー、このスペースのアクセスユーザー、このスペースのロケーションにはアクセスしているユーザーについては、例えば第一表示態様)で表示がなされ、他のロケーションにアクセスしているユーザーと、そもそもコミュニケーションシステム100にログインしていないユーザーとは、例えば第二表示態様で表示がなされてもよい。図6の例では、サムネイル画像95_1~95_3は、実線で縁を描く表示態様(第一表示態様)で表示されているが、サムネイル画像95_4~95_5は、破線で縁を描く表示態様(第二表示態様)で表示されている。表示態様は、このように線種が異なるような表示態様であってもよいし、線の色、線の太さ、サムネイル画像の彩度や明度や大きさ、などが異なるように表示されてもよい。 Certain types of users may be displayed with images and characters in a manner different from other types of users. For example, logged-in users of this space, users accessing this space, and users accessing locations in this space are displayed in, for example, the first display mode), and users accessing other locations, A user who has not logged in to the communication system 100 in the first place may be displayed in the second display mode, for example. In the example of FIG. 6, the thumbnail images 95_1 to 95_3 are displayed in a display mode (first display mode) in which edges are drawn with solid lines, but the thumbnail images 95_4 to 95_5 are displayed in a display mode (second display mode) in which edges are drawn with dashed lines. display mode). The display mode may be a display mode in which the line types are different in this way, or a display mode in which the color of the lines, the thickness of the lines, the saturation, brightness, size, etc. of the thumbnail images are displayed differently. good too.

スペース画面には、各種の操作のためのボタン901が表示されてもよい。例えば、そのスペース(アクセス中のスペース)に対してログインするためのボタンが表示されてもよい。このようなログインするためのボタンは、アクセスユーザーのスペース画面に表示されてもよい。例えば、ログインユーザーのスペース画面には、自身の映像をオン・オフするためのボタン901_1や、自身の音声をオン・オフするためのボタン901_2や、音声の出力をオン・オフするためのボタン901_3や、ログアウトするためのボタン901_7が表示されてもよい。 Buttons 901 for various operations may be displayed on the space screen. For example, a button for logging into the space (the space being accessed) may be displayed. Such a button for logging in may be displayed on the accessing user's space screen. For example, on the space screen of the logged-in user, a button 901_1 for turning on/off the image of the user, a button 901_2 for turning on/off the sound of the user, and a button 901_3 for turning the output of the sound on/off are displayed. Alternatively, a button 901_7 for logging out may be displayed.

例えば、スペースにpokeするためのボタン901_4が表示されてもよい。図7は、スペースにpokeが行われた場合のスペース画面の具体例を示す。スペースにpokeが行われると、pokeが行われたことを示すpoke画像97が映像表示領域94に表示される。poke画像97は、図7に示される画像に限定される必要は無く、どのような画像が用いられてもよい。また、poke画像97が表示されるタイミングで、pokeに応じた音響が出力されてもよい。このような音響の出力は、例えば会話制御部234によって行われる。すなわち、このスペースのログインユーザーのユーザー端末10及びスペース端末40に送信される会話音声データに対し、pokeに応じた音響が合成され送信される。 For example, a button 901_4 for poke in the space may be displayed. FIG. 7 shows a specific example of a space screen when a space is poked. When the space is poked, a poke image 97 indicating that the poke has been made is displayed in the video display area 94 . The poke image 97 is not limited to the image shown in FIG. 7, and any image may be used. Also, at the timing when the poke image 97 is displayed, a sound corresponding to the poke may be output. Such sound output is performed by the conversation control unit 234, for example. That is, the sound corresponding to the poke is synthesized with the conversation voice data transmitted to the user terminal 10 and the space terminal 40 of the logged-in user of this space and transmitted.

スペース画面には、ログインユーザー等の所定のユーザーの行為に関する情報(以下「ログ情報」という。)が表示されてもよい。このような表示は、例えば所定のボタン(例えばノーツボタン91_6)が操作されたことに応じて行われてもよい。図7では、ログ情報表示領域98にログ情報が表示されている。例えば、あるユーザーがpokeしたことを示す情報や、あるユーザーがスペースにログインしたことを示す情報がログ情報として表示されてもよい。 The space screen may display information (hereinafter referred to as “log information”) regarding actions of a predetermined user such as a logged-in user. Such a display may be performed, for example, when a predetermined button (for example, Notes button 91_6) is operated. In FIG. 7, log information is displayed in the log information display area 98 . For example, information indicating that a certain user has poked or information indicating that a certain user has logged into a space may be displayed as log information.

例えば、スペースにリアクトするためのボタン901_5が表示されてもよい。図8は、スペースに所定のリアクト(ハートを示すリアクト)が行われた場合のスペース画面の具体例を示す。スペースにリアクトが行われると、リアクトが行われたことを示すリアクト画像99が映像表示領域94に表示される。リアクト画像99は、図8に示される画像に限定される必要は無く、どのような画像が用いられてもよい。また、リアクト画像99が表示されるタイミングで、リアクトに応じた音響が出力されてもよい。このような音響の出力は、例えば会話制御部234によって行われる。すなわち、このスペースのログインユーザーのユーザー端末10及びスペース端末40に送信される会話音声データに対し、リアクトに応じた音響が合成され送信される。 For example, a button 901_5 for reacting to the space may be displayed. FIG. 8 shows a specific example of the space screen when a predetermined react (react indicating a heart) is performed in the space. When the space is reacted, a react image 99 indicating that the react has been performed is displayed in the video display area 94 . React image 99 need not be limited to the image shown in FIG. 8, and any image may be used. Also, at the timing when the react image 99 is displayed, a sound corresponding to the react may be output. Such sound output is performed by the conversation control unit 234, for example. That is, a sound corresponding to React is synthesized and transmitted with conversation voice data transmitted to the user terminal 10 and the space terminal 40 of the logged-in user of this space.

所定の時間内(例えば1秒以内、5秒以内)に、複数のログインユーザーによって同種のリアクトが行われた場合、そのリアクトに応じたリアクト画像99は、それぞれ異なる画像位置で表示されてもよい。このように構成されることによって、リアクト画像99が画面の複数の場所で表示され、リアクトが複数の者によって行われたことを容易に各ユーザーが判断することが可能となる。このことに応じて、スペースにおける盛り上がりを演出することができる。 If a plurality of logged-in users perform the same type of reaction within a predetermined period of time (for example, within 1 second or within 5 seconds), the react images 99 corresponding to the reactions may be displayed at different image positions. . With this configuration, the react image 99 is displayed at a plurality of locations on the screen, and each user can easily determine that the react was performed by a plurality of persons. In accordance with this, it is possible to produce excitement in the space.

所定の時間内(例えば1秒以内、5秒以内)に、所定の閾値以上の人数のログインユーザーによって同種のリアクトが行われた場合、そのリアクトに応じた特殊リアクト画像が表示されてもよい。例えば、図8に示されているハートのリアクトにおいて、特殊リアクト画像として、さらに多くのハートの画像が映像表示領域94のより大きな領域(例えば全体)に表示されてもよい。このように構成されることによって、通常は見ることのできない特殊リアクト画像が表示され、リアクトがより多くの者によって行われたことを容易に各ユーザーが判断することが可能となる。このことに応じて、スペースにおけるさらなる盛り上がりを演出することができる。 If a number of logged-in users equal to or greater than a predetermined threshold react within a predetermined period of time (for example, within 1 second, within 5 seconds), a special reaction image corresponding to the reaction may be displayed. For example, in the heart react shown in FIG. 8, more heart images may be displayed in a larger area (eg, the entire area) of the video display area 94 as special react images. With this configuration, a special reaction image that cannot normally be seen is displayed, and each user can easily determine that the reaction was performed by a larger number of people. In accordance with this, it is possible to produce a further excitement in the space.

図9は、アーカイブ画面の具体例を示す図である。アーカイブ画面には、過去に記録された動画像又は静止画像のサムネイル画像が表示される。各サムネイル画像の周囲には、その動画像又は静止画像に対して与えられた評価を示す情報が表示される。例えば、図9の例では、好印象を持ったユーザーがハートマークを操作したことに応じて、ハートマークを操作したユーザーの数を示す数字が表示される。アーカイブ画面に表示される動画像や静止画像は、所定の条件を満たしたタイミングで記録されてもよい。例えば、所定の時間内に行われたリアクトの回数が閾値を超えた場合に動画像又は静止画像が記録されてもよい。また、所定の周期で各スペース画像の静止画像が記録されてもよい。また、映像表示領域94に映った人の数が所定の閾値を超えた場合に、その画像が動画像又は静止画像として記録されてもよい。これらのアーカイブ画像は、複数のユーザーが同時にみることができてもよい。この場合、例えば複数のユーザーにおいて同期して動画像が再生されてもよい。 FIG. 9 is a diagram showing a specific example of the archive screen. Thumbnail images of moving images or still images recorded in the past are displayed on the archive screen. Information indicating the evaluation given to the moving image or still image is displayed around each thumbnail image. For example, in the example of FIG. 9, a number indicating the number of users who have operated the heart mark is displayed in response to the user having a favorable impression operating the heart mark. A moving image or still image displayed on the archive screen may be recorded at a timing when a predetermined condition is satisfied. For example, a moving image or still image may be recorded when the number of reactions performed within a predetermined time exceeds a threshold. Also, a still image of each space image may be recorded at a predetermined cycle. Further, when the number of people appearing in the image display area 94 exceeds a predetermined threshold, the image may be recorded as a moving image or still image. These archived images may be viewable by multiple users simultaneously. In this case, for example, moving images may be played back synchronously by a plurality of users.

アクセスユーザーは、自身の音声や映像をスペース端末40や他のログインユーザー等のユーザー端末10に表示させることなく、スペース端末40によって撮影された映像を見ることができる。このとき、アクセスユーザーのサムネイル画像も画面には表示されない。そのため、アクセスユーザーは、自身の存在をスペースユーザーやログインユーザー等の他のユーザーに示すことなく、スペース端末40によって撮影された映像を見ることができる。ただし、アクセスユーザーは、スペース端末40によって取得された音声は聞くことができない。このような制御が行われることによって、アクセスユーザーという形で気軽にスペース周辺の状況を確認することが可能となる。また、スペース周辺に位置するスペースユーザーにとっても、自身の音声がアクセスユーザーによって知らぬ間に得られているという心配が無いため、安心してスペースにおいて活動することが可能となる。このように、アクセスユーザーのニーズとスペースユーザーのプライバシーとのバランスをとることが可能となる。 The access user can view the video captured by the space terminal 40 without having his/her own voice or video displayed on the space terminal 40 or the user terminal 10 of another logged-in user. At this time, the thumbnail image of the accessing user is also not displayed on the screen. Therefore, the access user can view the video captured by the space terminal 40 without showing his/her presence to other users such as the space user and the login user. However, the access user cannot hear the voice acquired by the space terminal 40 . By performing such control, it becomes possible for an access user to easily check the situation around the space. In addition, space users located around the space do not have to worry about their own voices being unwittingly obtained by access users, so they can work in the space without worry. In this way, it is possible to balance the needs of access users and the privacy of space users.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.

100…コミュニケーションシステム, 10…ユーザー端末, 20…コミュニケーション制御装置, 30…ロケーション, 40…スペース端末, 11…通信部, 12…操作部, 13…表示部, 14…撮像部, 15…音声入力部, 16…音声出力部, 17…記憶部, 171…ユーザー情報記憶部, 18…制御部, 181…表示制御部, 182…スペース制御部, 183…会話制御部, 184…行動制御部, 21…通信部, 22…記憶部, 221…ユーザー情報記憶部, 222…スペース情報記憶部, 23…制御部, 231…ユーザー制御部, 232…スペース制御部, 233…表示情報生成部, 234…会話制御部, 235…行動制御部, 41…通信部, 42…操作部, 43…表示部, 44…撮像部, 45…音声入力部, 46…音声出力部, 47…記憶部, 471…ユーザー情報記憶部, 48…制御部, 481…表示制御部, 482…スペース制御部, 483…会話制御部, 484…行動制御部 DESCRIPTION OF SYMBOLS 100... Communication system, 10... User terminal, 20... Communication control apparatus, 30... Location, 40... Space terminal, 11... Communication part, 12... Operation part, 13... Display part, 14... Imaging part, 15... Voice input part 16... Audio output unit 17... Storage unit 171... User information storage unit 18... Control unit 181... Display control unit 182... Space control unit 183... Conversation control unit 184... Action control unit 21... Communication unit 22 Storage unit 221 User information storage unit 222 Space information storage unit 23 Control unit 231 User control unit 232 Space control unit 233 Display information generation unit 234 Conversation control Section 235 Action control section 41 Communication section 42 Operation section 43 Display section 44 Imaging section 45 Audio input section 46 Audio output section 47 Storage section 471 User information storage Part 48... Control part 481... Display control part 482... Space control part 483... Conversation control part 484... Action control part

Claims (2)

他の装置とネットワークを介して通信する通信部と、
所定の位置であるスペースに設置されたスペース端末によって撮影された映像と音声とをネットワークを介して受信し、前記スペースに対して第一の状態であるユーザーのユーザー端末には前記映像を送信して前記音声は送信せず、前記スペースに対して第二の状態であるユーザーのユーザー端末には前記映像と前記音声とを送信する制御部と、
を備え
前記第一の状態は、そのスペースに対してログインはしていないがアクセスはしているという状態であり、前記第二の状態は、そのスペースに対してアクセスし、そしてそのスペースに対してログインしているという状態である、コミュニケーション制御装置。
a communication unit that communicates with another device via a network;
A video and audio captured by a space terminal installed in a space, which is a predetermined position, are received via a network, and the video and audio are transmitted to the user terminal of the user who is in the first state with respect to the space. a control unit that transmits the video and the audio to the user terminal of the user who is in the second state with respect to the space;
with
The first state is a state in which the user is not logged in to the space but is accessing it, and the second state is a state in which the user accesses the space and then logs in to the space. A communication controller that is in the state of
他の装置とネットワークを介して通信する通信部を備えたコンピューターを、
所定の位置であるスペースに設置されたスペース端末によって撮影された映像と音声とをネットワークを介して受信し、前記スペースに対して第一の状態であるユーザーのユーザー端末には前記映像を送信して前記音声は送信せず、前記スペースに対して第二の状態であるユーザーのユーザー端末には前記映像と前記音声とを送信する制御部を備えるコミュニケーション制御装置として機能させるためのコンピュータープログラムであり、
前記第一の状態は、そのスペースに対してログインはしていないがアクセスはしているという状態であり、前記第二の状態は、そのスペースに対してアクセスし、そしてそのスペースに対してログインしているという状態である、コンピュータープログラム
A computer equipped with a communication unit that communicates with other devices via a network,
A video and audio captured by a space terminal installed in a space, which is a predetermined position, are received via a network, and the video and audio are transmitted to the user terminal of the user who is in the first state with respect to the space. A computer program for functioning as a communication control device having a control unit that transmits the video and the audio to the user terminal of the user who is in the second state with respect to the space without transmitting the audio to the space. ,
The first state is a state in which the user is not logged in to the space but is accessing it, and the second state is a state in which the user accesses the space and then logs in to the space. A computer program that is in the state of doing .
JP2022109989A 2022-07-07 2022-07-07 Communication controller and computer program Active JP7292765B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022109989A JP7292765B1 (en) 2022-07-07 2022-07-07 Communication controller and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022109989A JP7292765B1 (en) 2022-07-07 2022-07-07 Communication controller and computer program

Publications (2)

Publication Number Publication Date
JP7292765B1 true JP7292765B1 (en) 2023-06-19
JP2024008266A JP2024008266A (en) 2024-01-19

Family

ID=86772604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022109989A Active JP7292765B1 (en) 2022-07-07 2022-07-07 Communication controller and computer program

Country Status (1)

Country Link
JP (1) JP7292765B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232780A (en) 2009-03-26 2010-10-14 Brother Ind Ltd Apparatus, method and program for communication control
JP2011055444A (en) 2009-09-04 2011-03-17 Sharp Corp Communication device
JP2013243599A (en) 2012-05-22 2013-12-05 Nec Corp Television conference system
JP2014131096A (en) 2012-12-28 2014-07-10 Brother Ind Ltd Sound controller, sound control method, and sound control program
JP2016174283A (en) 2015-03-17 2016-09-29 パナソニックIpマネジメント株式会社 Communication device for television conference

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232780A (en) 2009-03-26 2010-10-14 Brother Ind Ltd Apparatus, method and program for communication control
JP2011055444A (en) 2009-09-04 2011-03-17 Sharp Corp Communication device
JP2013243599A (en) 2012-05-22 2013-12-05 Nec Corp Television conference system
JP2014131096A (en) 2012-12-28 2014-07-10 Brother Ind Ltd Sound controller, sound control method, and sound control program
JP2016174283A (en) 2015-03-17 2016-09-29 パナソニックIpマネジメント株式会社 Communication device for television conference

Also Published As

Publication number Publication date
JP2024008266A (en) 2024-01-19

Similar Documents

Publication Publication Date Title
JP7206688B2 (en) Teleconference system and terminal equipment
JP5122433B2 (en) Information communication system and information communication method
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
US20220150288A1 (en) Information processing device and computer readable medium
US9438859B2 (en) Method and device for controlling a conference
US20230171118A1 (en) Conversation control device, conversation system, and conversation control method
KR20220104772A (en) Interaction methods and electronic devices
EP3965369A1 (en) Information processing apparatus, program, and information processing method
JP2019117998A (en) Web conference system, control method of web conference system, and program
JP7292765B1 (en) Communication controller and computer program
US20240203075A1 (en) Collaborative system
JP2019117997A (en) Web conference system, control method of web conference system, and program
CN104866208B (en) Information processing method and electronic equipment
JP2021018539A (en) User terminal, server, character interaction system, character interaction method and program
WO2024058157A1 (en) Propagation system, propagation method, and propagation program
JP2024047431A (en) Control system, computer program and control method
JP2024082435A (en) Conference control system, conference control method, and computer program
JP7464853B2 (en) Information processing device, information processing method, and program
JP2022079192A (en) Conversation control device, conversation system, conversation control method and computer program
JP7341109B2 (en) Call control device, call control method and computer program
JP7367258B1 (en) Information processing system, information processing method, information processing program, and distributor terminal
Rantala et al. User experiences of mobile audio conferencing with spatial audio, haptics and gestures
WO2023149562A1 (en) Operation system and operation method for virtual space or online meeting system
JP2022100996A (en) Conversation control apparatus, conversation control method, and computer program
JP2022067463A (en) Multiple points call system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220707

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R150 Certificate of patent or registration of utility model

Ref document number: 7292765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150