JP2020205556A - Emotion stabilization program - Google Patents

Emotion stabilization program Download PDF

Info

Publication number
JP2020205556A
JP2020205556A JP2019112970A JP2019112970A JP2020205556A JP 2020205556 A JP2020205556 A JP 2020205556A JP 2019112970 A JP2019112970 A JP 2019112970A JP 2019112970 A JP2019112970 A JP 2019112970A JP 2020205556 A JP2020205556 A JP 2020205556A
Authority
JP
Japan
Prior art keywords
call
video
program
data
caller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019112970A
Other languages
Japanese (ja)
Inventor
山崎 薫
Kaoru Yamazaki
薫 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atumist Corp
Original Assignee
Atumist Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atumist Corp filed Critical Atumist Corp
Priority to JP2019112970A priority Critical patent/JP2020205556A/en
Publication of JP2020205556A publication Critical patent/JP2020205556A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a program that helps create a mechanism to stabilize emotions.SOLUTION: In an emotion stabilization system 1, an emotion stabilization program 39 included in a storage device of a server connected to the Internet causes a processor 36 to perform the processes of: receiving a call; identifying a caller of the call; making a call back to the caller; and streaming data that displays video of a video call prepared in advance and reproduces audio toward the caller's terminal when a communication path is established in response to the call back.SELECTED DRAWING: Figure 1

Description

本発明は情緒安定化プログラムに関する。 The present invention relates to an emotional stabilization program.

非特許文献1で実施されるように、特定の操作に応じてサーバーから発呼する(コールする)技術は知られる。発呼にあたって、インターネットサイトの画面で通話先の電話番号が入力される。その画面で「発呼」ボタンが押されると、発呼が実現される。しかしながら、インターネットサイトの画面の操作は通常の発呼時の動作からほど遠い。操作者はインターネットサイトにデータの入力作業を実施した気になるだけで電話をかけた意識にはならない。明らかに臨場感に欠ける。 As is carried out in Non-Patent Document 1, a technique of calling (calling) from a server in response to a specific operation is known. When making a call, the telephone number of the other party is entered on the screen of the Internet site. When the "Call" button is pressed on the screen, the call is realized. However, the operation of the screen of the Internet site is far from the operation at the time of normal calling. The operator does not feel like making a phone call, just because he feels that he has entered the data on the Internet site. Obviously lacking in presence.

PrankDial,[online],[令和1年5月2日検索],インターネット<URL:https://www.prankdial.com/pranks/you-hit-my-car>PlankDial, [online], [Search on May 2, 1st year of Reiwa], Internet <URL: https://www.prankdial.com/pranks/you-hit-my-car>

憧れるひと、尊敬するひと、好意を持つひとから、勇気づけられ、元気づけられ、励まされれば、気持ちは上向き、情緒の安定はもたらされる。しかしながら、そういったひとたちから、勇気づけられ、元気づけられ、励まされる機会はしごく僅少である。そういったひとたちの姿を収めたビデオ映像が個々のスマートホンに配信されれば、擬似的に、ひとは勇気づけられ、元気づけられ、励まされることができるかもしれない。とはいえ、臨場感がなければ、ひとの気持ちを上向かせるほどまでには至らない。 Encouragement, encouragement, and encouragement from those who adore, respect, and favor will bring up feelings and emotional stability. However, there are very few opportunities for them to be encouraged, encouraged and encouraged. If video footage of these people is delivered to individual smartphones, people may be able to be encouraged, encouraged, and encouraged in a simulated manner. However, without a sense of presence, it is not enough to raise one's feelings.

本発明は、情緒の安定化を実現する仕組み作りに役立つプログラムを提供することを目的とする。 An object of the present invention is to provide a program useful for creating a mechanism for realizing emotional stabilization.

本発明によれば、コールを受ける処理と、前記コールの発呼者を特定する処理と、折り返し前記発呼者に向かって折り返しコールを発信する処理と、前記折り返しコールに応じて通信経路が確立されると、前記発呼者の端末に向けて、予め準備されたビデオ通話の映像を映し出し音声を再生するデータをストリーミングする処理とをプロセッサーに実行させるプログラムが提供される。 According to the present invention, a process of receiving a call, a process of identifying the caller of the call, a process of issuing a call back to the caller, and a communication path established in response to the call back. Then, a program is provided that causes the processor to execute a process of projecting a video of a video call prepared in advance and streaming data for reproducing the voice toward the terminal of the caller.

折り返しコールに応じて通信経路は確立される。相手から電話を受ける状況は作り出される。通信経路が確立されると、予め準備された映像に基づきビデオ通話は再現されることができる。電話を受けたひとは疑似的にビデオ通話を体験することができる。たとえ折り返しであっても、電話を受けることで、ひとは、相手から気にかけてもらった、相手から大切に思われていた、といった印象を抱く。利用者は、折り返しコールに応じて通常通りに受信の動作を実施すればよいことから、良好な臨場感は確保されることができる。その結果、ひとの気持ちは上向く。こうして本プログラムは、情緒の安定化を実現する仕組み作りに役立つ。 The communication path is established in response to the call back. A situation is created in which the other party receives a call. Once the communication path is established, the video call can be reproduced based on the video prepared in advance. The person who receives the call can experience a pseudo video call. Even if you call back, when you receive a call, you get the impression that the other person has taken care of you and that the other person has taken good care of you. Since the user only needs to perform the reception operation as usual in response to the return call, a good sense of presence can be ensured. As a result, people's feelings improve. In this way, this program helps to create a mechanism to realize emotional stabilization.

プログラムは例えばサーバーで実行されることができる。折り返しコールに先立ってサーバーにはサーバー以外の端末(例えばスマートホン)からコールが発信される(発呼される)。利用者から発せられるコールに応じて折り返しコールが発せられることは予め理解されることから、利用者は電話されたいときにだけ選択的にコールを発信することができる。利用者は、落ち込んだり、悲しんだり、苦しんだりしたときに折り返しコールを要求することができる。したがって、落ち込んだり、悲しんだり、苦しんだりしても、情緒は安定した状態を維持することができる。 The program can be run on a server, for example. Prior to the call back, a call is made (called) to the server from a terminal other than the server (for example, a smartphone). Since it is understood in advance that a call back is made in response to a call made by the user, the user can selectively make a call only when he / she wants to be called. The user can request a call back when he / she is depressed, sad or suffering. Therefore, emotions can remain stable even when depressed, sad, or suffering.

ひとは、気にかけて欲しい相手から電話されると、嬉しい。憧れるひと、尊敬するひと、好意を持つひとから、勇気づけられ、元気づけられ、励まされると、気持ちは上向く。予め準備されたビデオ通話は個々のコールごとに紐付けられることから、利用者は、コールの発信先を選ぶことで、言葉がけされたい相手からのみ折り返しコールの電話を受け取ることができる。利用者は、自分を気にかけて欲しい相手からのみ電話を受け取ることができる。こうしたことは情緒の安定化に大いに貢献することができる。 People are happy when they are called by someone they want to care about. Feelings improve when you are encouraged, encouraged, and encouraged by those you admire, respect, and like. Since the video call prepared in advance is linked to each individual call, the user can receive the call back call only from the person who wants to speak by selecting the call destination. Users can only receive calls from people they want to care about. This can greatly contribute to emotional stabilization.

前記コールから前記折り返しコールまでの時間差はランダムに設定されればよい。利用者は折り返しコールの時刻を予想することができない。現実の場面と同様に、手が空き次第折り返し電話してきたように印象づけられることができる。したがって、折り返しコールの臨場感は高められることができる。 The time difference from the call to the return call may be set randomly. The user cannot predict the time of the call back. As in the real world, you can get the impression that you are calling back as soon as you have a free hand. Therefore, the presence of the return call can be enhanced.

プログラムは、前記ビデオ通話の映像で、発声者の口元を消しながら前記発呼者の名前を発声させてもよい。共通の映像でありながら、個々に発呼者は名前で呼びかけられることができる。憧れるひと、尊敬するひと、好意を持つひとから名前を呼ばれるので、利用者の気持ちは上向く。しかも、名前の呼びかけ中に映像中で発声者の口元は消されることから、利用者は映像に違和感を抱かずに済む。ビデオ通話のリアル感は維持されることができる。 The program may utter the name of the caller while erasing the mouth of the caller in the video of the video call. Although it is a common image, each caller can be called by name. People who admire, respect, and like people call their names, so the feelings of users improve. Moreover, since the mouth of the speaker is erased in the video while calling for the name, the user does not have to feel uncomfortable with the video. The realism of the video call can be maintained.

以上のように本発明によれば、情緒の安定化を実現する仕組み作りに役立つプログラムは提供される。 As described above, according to the present invention, a program useful for creating a mechanism for realizing emotional stabilization is provided.

一実施形態に係る情緒安定化システムの構成を概略的に示す概念図である。It is a conceptual diagram which shows schematic structure of the emotion stabilization system which concerns on one Embodiment. スマートホンの外観を示す拡大平面図である。It is an enlarged plan view which shows the appearance of a smart phone. スマートホンのベゼルの拡大斜視図である。It is an enlarged perspective view of the bezel of a smart phone. 留守電メッセージデータ、電話帳データおよびストリーミングデータの構造を概略的に示すブロック図である。It is a block diagram which shows schematic structure of answering machine message data, telephone directory data and streaming data. 情緒安定化プログラムが実行された際にプロセッサーの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of a processor when an emotional stabilization program is executed. スマートホンで着信時の待ち受け画面を示す概念図である。It is a conceptual diagram which shows the standby screen at the time of an incoming call with a smart phone. スマートホンでビデオ通話中の画面を示す概念図である。It is a conceptual diagram which shows the screen during a video call with a smart phone.

以下、添付図面を参照しつつ本発明の一実施形態を説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は一実施形態に係る情緒安定化システム11の構成を概略的に示す。情緒安定化システム11は、インターネット12に随時に接続可能な端末(例えばスマートホン13)と、インターネット12に接続されるサーバー14とを備える。スマートホン13は例えばWiFiルーター15経由でインターネット12に接続されることができる。サーバー14は例えばルーター16経由でインターネット12に接続される。その他、スマートホン13は携帯電話通信網でインターネット12に接続されてもよい。 FIG. 1 schematically shows the configuration of the emotional stabilization system 11 according to the embodiment. The emotional stabilization system 11 includes a terminal (for example, a smart phone 13) that can be connected to the Internet 12 at any time, and a server 14 that is connected to the Internet 12. The smart phone 13 can be connected to the Internet 12 via, for example, a WiFi router 15. The server 14 is connected to the Internet 12 via, for example, a router 16. In addition, the smart phone 13 may be connected to the Internet 12 via a mobile phone communication network.

図2に示されるように、スマートホン13は筐体18を備える。筐体18は、4角で丸みを帯びた矩形の表面を有する薄型の箱体で形成される。筐体18の表面にはタッチスクリーンディスプレイ19が埋め込まれる。タッチスクリーンディスプレイ19はディスプレイパネル19aおよびタッチスクリーンパネル19bを有する。ディスプレイパネル19aの画面形成域上にタッチスクリーンパネル19bは重ねられる。ディスプレイパネル19aは画像信号に基づき画像を表示する。画像信号はピクセルごとの色情報を特定する。タッチスクリーンパネル19bはディスプレイパネル19aの表面に確立される二次元座標系に従って座標位置ごとに圧力に応じて検出信号を出力する。 As shown in FIG. 2, the smart phone 13 includes a housing 18. The housing 18 is formed of a thin box having a rectangular surface that is rounded at four corners. A touch screen display 19 is embedded in the surface of the housing 18. The touch screen display 19 has a display panel 19a and a touch screen panel 19b. The touch screen panel 19b is superposed on the screen forming area of the display panel 19a. The display panel 19a displays an image based on the image signal. The image signal specifies color information for each pixel. The touch screen panel 19b outputs a detection signal according to the pressure at each coordinate position according to the two-dimensional coordinate system established on the surface of the display panel 19a.

スマートホン13はホームボタン21を備える。ホームボタン21は筐体18の表面に埋め込まれる。ホームボタン21は例えばタッチスクリーンディスプレイ19の輪郭の外側に配置される。ホームボタン21は作用する圧力を検出して検出信号を出力する。ここでは、ホームボタン21は、筐体18の表面に直交する垂直方向に移動ストロークを有し、押圧操作に応じて筐体の表面から沈む。ホームボタン21の沈む動作に応じて操作者にはクリック感が付与される。 The smart phone 13 includes a home button 21. The home button 21 is embedded in the surface of the housing 18. The home button 21 is arranged, for example, outside the contour of the touch screen display 19. The home button 21 detects the acting pressure and outputs a detection signal. Here, the home button 21 has a moving stroke in the vertical direction orthogonal to the surface of the housing 18, and sinks from the surface of the housing in response to a pressing operation. A click feeling is given to the operator according to the sinking operation of the home button 21.

スマートホン13はレシーバー22を備える。レシーバー22は筐体18内に収容される。レシーバー22は例えば通話時に回線(またはVoIP)経由で受信する音声信号に基づき音声を再生する。 The smart phone 13 includes a receiver 22. The receiver 22 is housed in the housing 18. The receiver 22 reproduces voice based on a voice signal received via a line (or VoIP) during a call, for example.

スマートホン13はフロントカメラ23を備える。フロントカメラ23は筐体18の表面に埋め込まれる。フロントカメラ23は例えばタッチスクリーンディスプレイ19の輪郭の外側に配置される。フロントカメラ23は、例えばタッチスクリーンディスプレイ19の画面をのぞき込む利用者の表情を映し出すことができる。フロントカメラ23は被写体に基づき画像信号を生成する。 The smart phone 13 includes a front camera 23. The front camera 23 is embedded in the surface of the housing 18. The front camera 23 is arranged, for example, outside the contour of the touch screen display 19. The front camera 23 can project, for example, the facial expression of a user looking into the screen of the touch screen display 19. The front camera 23 generates an image signal based on the subject.

図3に示されるように、レシーバー22から最大限に離れた位置でタッチスクリーンパネル19のベゼルにはマイクロホン24、スピーカー25、ヘッドセットコネクター26およびケーブルコネクター27が配置される。マイクロホン24、スピーカー25、ヘッドセットコネクター26およびケーブルコネクター27は例えば筐体18内に収容される基板に実装される。マイクロホン24は拾った音から電気信号(音声信号)を生成する。スピーカー25は音声信号に基づき音声を再生する。スピーカー25の音は筐体18に区画される開口から筐体18外に伝わる。その他、レシーバー22に隣接してマイクロホン24が設置されてもよい。 As shown in FIG. 3, the microphone 24, the speaker 25, the headset connector 26, and the cable connector 27 are arranged on the bezel of the touch screen panel 19 at the maximum distance from the receiver 22. The microphone 24, the speaker 25, the headset connector 26, and the cable connector 27 are mounted on a substrate housed in the housing 18, for example. The microphone 24 generates an electric signal (audio signal) from the picked up sound. The speaker 25 reproduces sound based on the sound signal. The sound of the speaker 25 is transmitted to the outside of the housing 18 through the opening defined in the housing 18. In addition, the microphone 24 may be installed adjacent to the receiver 22.

図1に示されるように、スマートホン13の筐体18内には、インターフェイス回路29でWiFiルーター15に接続されるプロセッサー(CPU:中央演算処理装置)31が組み込まれる。インターフェイス回路29は、例えば、WiFiルーター15に接続されるWiFi送受信回路に加えて、携帯電話通信網の基地局に接続される無線送受信回路や、Bluetooth(登録商標)に従って無線で他機器に接続されるブルートゥース送受信回路、ヘッドセットのコネクターを受け入れるヘッドセットコネクター26、例えばLightning(登録商標)ケーブル経由で他機器に接続されるケーブルコネクター27、その他を含む。プロセッサー31に、レシーバー22やフロントカメラ23、マイクロホン24、スピーカー25、ディスプレイパネル19a、タッチスクリーンパネル19bが電気的に接続される。 As shown in FIG. 1, a processor (CPU: central processing unit) 31 connected to the WiFi router 15 by the interface circuit 29 is incorporated in the housing 18 of the smartphone 13. The interface circuit 29 is connected to, for example, a wireless transmission / reception circuit connected to a base station of a mobile phone communication network in addition to a WiFi transmission / reception circuit connected to the WiFi router 15, and wirelessly connected to another device according to Bluetooth (registered trademark). It includes a Bluetooth transmitter / receiver circuit, a headset connector 26 that accepts a headset connector, for example, a cable connector 27 that is connected to another device via a Lighting® cable, and the like. A receiver 22, a front camera 23, a microphone 24, a speaker 25, a display panel 19a, and a touch screen panel 19b are electrically connected to the processor 31.

筐体18内でプロセッサー31にはメモリー(記憶デバイス)32が接続される。メモリー32内には、電話機能プログラム33a、通知機能プログラム33b、映像ストリーミング再生プログラム33c、チャットアプリプログラム33dといったプログラムが格納される。チャットアプリプログラム33dには、例えば、FaceTime(登録商標)、LINE(登録商標)、Messenger、WhatsApp(登録商標)、WeChat(登録商標)、Skype(登録商標)その他が含まれる。プロセッサー31は、メモリー32に格納されたプログラムを実行し、プログラムに従って様々な処理を実現する。処理の実現にあたってディスプレイパネル19aには様々な情報が視覚的に表示されることができる。タッチスクリーンパネル19bの操作に応じて様々な情報はプロセッサー31に入力されることができる。 A memory (storage device) 32 is connected to the processor 31 in the housing 18. Programs such as a telephone function program 33a, a notification function program 33b, a video streaming playback program 33c, and a chat application program 33d are stored in the memory 32. The chat app program 33d includes, for example, FaceTime (registered trademark), LINE (registered trademark), Messenger, WhatsApp (registered trademark), WeChat (registered trademark), Skype (registered trademark) and others. The processor 31 executes a program stored in the memory 32 and realizes various processes according to the program. Various information can be visually displayed on the display panel 19a in order to realize the processing. Various information can be input to the processor 31 according to the operation of the touch screen panel 19b.

サーバー14は、インターフェイス回路35でルーター16に接続されるプロセッサー(CPU:中央演算処理装置)36を備える。プロセッサー36には大容量記憶装置37およびメモリー38が接続される。大容量記憶装置37には、本実施形態に係る情緒安定化プログラム39と、情緒安定化プログラム39の実行にあたって留守電メッセージを提供する留守電メッセージデータ40と、情緒安定化プログラム39の実行にあたって参照される電話帳データ41と、情緒安定化プログラム39の実行にあたって利用されるストリーミングデータ42とが格納される。図4に示されるように、留守電メッセージデータ40には、特定の人物に割り当てられるサーバー14側の電話番号ごとに当該人物の肉声で録音される肉声データ40aが格納される。電話帳データ41には会員情報が格納される。会員情報は個々の会員ごとに会員の電話番号(スマートホン13の電話番号)および名前を含む。会員の電話番号には、特定の人物ごとに割り当てられるサーバー14側の電話番号が関連づけられる。名前には、会員の希望に応じて愛称が登録されてもよい。 The server 14 includes a processor (CPU: central processing unit) 36 connected to the router 16 by the interface circuit 35. A large-capacity storage device 37 and a memory 38 are connected to the processor 36. For the large-capacity storage device 37, refer to the emotional stabilization program 39 according to the present embodiment, the answering machine message data 40 that provides an answering machine message when executing the emotional stabilizing program 39, and the execution of the emotional stabilizing program 39. The telephone book data 41 to be generated and the streaming data 42 used for executing the emotional stabilization program 39 are stored. As shown in FIG. 4, the answering machine message data 40 stores the real voice data 40a recorded by the real voice of the person for each telephone number on the server 14 side assigned to the specific person. Member information is stored in the telephone directory data 41. The member information includes the member's telephone number (telephone number of the smart phone 13) and name for each individual member. The telephone number of the member is associated with the telephone number of the server 14 assigned to each specific person. A nickname may be registered in the name according to the wishes of the member.

ストリーミングデータ42には、個々の人物ごとに、電話番号(サーバー14の電話番号)と、ビデオ通話の動画像を特定する映像データ42aと、動画像に関連づけられてビデオ通話の音声を特定する音声データ42bと、個々の名前別に名前を発声する音声を特定する名前データ42cとが含まれる。人物は、歌手や役者といった芸能人やスポーツ選手、作家、芸術家、その他の有名人および著名人であればよい。動画像には、例えば当該人物の通話時にスマートホンのフロントカメラで撮影される動画像が用いられればよい。ビデオ通話の音声は動画像の撮影時に同時に録音される肉声であればよい。名前を発声する音声は人物の肉声であればよい。その他、名前を発声する音声は人物の肉声に基づき合成されてもよい。 The streaming data 42 includes a telephone number (phone number of the server 14), video data 42a for specifying the moving image of the video call, and audio for specifying the audio of the video call associated with the moving image for each individual person. The data 42b and the name data 42c that identifies the voice that utters the name for each individual name are included. The person may be an entertainer such as a singer or an actor, an athlete, a writer, an artist, or any other celebrity or celebrity. As the moving image, for example, a moving image taken by the front camera of the smartphone during a call of the person concerned may be used. The voice of the video call may be a real voice recorded at the same time as the moving image is taken. The voice that utters the name may be the real voice of the person. In addition, the voice that utters the name may be synthesized based on the real voice of the person.

図1に示されるように、情緒安定化プログラム39は、電話機能を実現する電話機能コンポーネント39aと、電話機能の実行時に回線に留守電メッセージを送り出す留守電機能コンポーネント39bと、情緒安定化プログラム39の実行時にインターネット12にストリーミングデータ42を送り出す映像ストリーミングコンポーネント39cとを含む。プロセッサー36は、メモリー38に一時的にプログラムやデータを保持しながらプログラムの実行に応じて特定の機能を発揮する。 As shown in FIG. 1, the emotional stabilization program 39 includes a telephone function component 39a that realizes a telephone function, an answering machine component 39b that sends an answering machine message to a line when the telephone function is executed, and an emotional stabilization program 39. Includes a video streaming component 39c that sends streaming data 42 to the Internet 12 at the time of execution. The processor 36 exerts a specific function according to the execution of the program while temporarily holding the program and data in the memory 38.

インターネット12にはLANルーター44経由でコンピューター端末すなわちパーソナルコンピューター(以下「パソコン」という)45が接続される。パソコン45は、インターフェイス回路46でLANルーター44に接続されるプロセッサー(CPU:中央演算処理装置)47を備える。プロセッサー47には大容量記憶装置48、メモリー49およびディスプレイ51が接続される。大容量記憶装置48には、サーバー14内の電話帳データ41に会員情報を入力する会員管理プログラム52aと、サーバー14に留守番メッセージおよびストリーミングデータ42をアップロードするアップロードプログラム52bとが格納される。プロセッサー47は、メモリー49に一時的にプログラムやデータを保持しながらプログラムの実行に応じて特定の機能を発揮する。プロセッサー47の処理動作にあたってディスプレイ51には様々な情報が視覚的に表示されることができる。その他、パソコン17はWiFiルーター14でインターネット12に接続されてもよい。 A computer terminal, that is, a personal computer (hereinafter referred to as a "personal computer") 45 is connected to the Internet 12 via a LAN router 44. The personal computer 45 includes a processor (CPU: central processing unit) 47 connected to the LAN router 44 by the interface circuit 46. A large-capacity storage device 48, a memory 49, and a display 51 are connected to the processor 47. The large-capacity storage device 48 stores a member management program 52a for inputting member information into the telephone directory data 41 in the server 14, and an upload program 52b for uploading an answering machine message and streaming data 42 to the server 14. The processor 47 exerts a specific function according to the execution of the program while temporarily holding the program and data in the memory 49. Various information can be visually displayed on the display 51 in the processing operation of the processor 47. In addition, the personal computer 17 may be connected to the Internet 12 by the WiFi router 14.

プロセッサー36で情緒安定化プログラム39が実行されると、図5に示されるように、プロセッサー36はステップS1でコール(呼び)を受ける。プロセッサー36はステップS2で発呼者を特定する。発呼者の特定にあたってプロセッサー36は電話機能コンポーネント39aを起動する。プロセッサー36は番号通知機能に基づき発呼者の電話番号を確認する。発呼者の電話番号は電話帳データ41に含まれる会員情報に照らし合わせられる。電話番号の登録が確認されると、プロセッサー36はステップS3で回線を確立する。登録が確認されなければ、プロセッサー36は回線を確立せずに処理動作を終了する。 When the emotional stabilization program 39 is executed on the processor 36, the processor 36 receives a call in step S1 as shown in FIG. The processor 36 identifies the caller in step S2. Upon identifying the caller, the processor 36 activates the telephone function component 39a. The processor 36 confirms the caller's telephone number based on the number notification function. The telephone number of the caller is compared with the member information included in the telephone directory data 41. When the registration of the telephone number is confirmed, the processor 36 establishes the line in step S3. If the registration is not confirmed, the processor 36 ends the processing operation without establishing a line.

回線を確立すると、プロセッサー36はステップS4で留守電機能コンポーネント39bを起動する。プロセッサー36は、サーバー14側の電話番号に応じて留守電メッセージデータ40から肉声データ40aを取得する。確立された回線を通じて肉声データ40aは発呼者のスマートホン13に送り込まれる。肉声データ40aの送信が完了すると、プロセッサー36はステップS5で回線を切断する。 When the line is established, the processor 36 activates the answering machine component 39b in step S4. The processor 36 acquires the real voice data 40a from the answering machine message data 40 according to the telephone number on the server 14 side. The real voice data 40a is sent to the caller's smart phone 13 through the established line. When the transmission of the real voice data 40a is completed, the processor 36 disconnects the line in step S5.

回線の切断後、プロセッサー36はステップS6で計時を開始する。回線の切断から予め決められた時間差の時刻が設定される。その他、時刻の設定に代わって待機時間(時間長さ)が計時されてもよい。設定された時刻に達すると、サーバー14はステップS7で前述の発呼者に向けて折り返しコールを発信する。折り返しコールの発信にあたってプロセッサー36は映像ストリーミングコンポーネント39cを起動する。折り返しコールに応じてステップS8で発呼者のスマートホン13との間で通信経路が確立されると、ステップS9でプロセッサー36はストリーミングデータ42のストリーミングを開始する。プロセッサー36は、発呼者のスマートホン13に向けて、予め準備されたビデオ通話の映像を映し出し音声を再生するデータをストリーミングする。プロセッサー36はサーバー14側の電話番号に応じてストリーミングデータ42から対応の映像データ42aおよび音声データ42bを取得する。プロセッサー36は、電話帳データ41に登録される名前に基づきストリーミングデータ42から名前データ42cを取得する。映像データ42a、音声データ42bおよび名前データ42cは通信経路経由で発呼者のスマートホン13に向けて送信される。スマートホン13では、予め準備された映像データ42a、音声データ42bおよび名前データ42cに基づきタッチスクリーンディスプレイ19の画面にビデオ通話の映像が映し出されスピーカー25から対応する音声は再生される。映像データ42aおよび音声データ42bのストリーミングが完了すると、プロセッサー36はステップS10で通信経路を切断する。プロセッサー36の処理動作は終了する。 After disconnecting the line, processor 36 starts timing in step S6. A predetermined time difference time is set from the disconnection of the line. In addition, the waiting time (time length) may be clocked instead of setting the time. When the set time is reached, the server 14 makes a return call to the above-mentioned caller in step S7. Upon making the call back, the processor 36 activates the video streaming component 39c. When the communication path is established with the caller's smartphone 13 in step S8 in response to the return call, the processor 36 starts streaming the streaming data 42 in step S9. The processor 36 projects the video of the video call prepared in advance and streams the data for reproducing the voice toward the caller's smartphone 13. The processor 36 acquires the corresponding video data 42a and audio data 42b from the streaming data 42 according to the telephone number on the server 14 side. The processor 36 acquires the name data 42c from the streaming data 42 based on the name registered in the telephone directory data 41. The video data 42a, the audio data 42b, and the name data 42c are transmitted to the caller's smartphone 13 via the communication path. In the smart phone 13, the video of the video call is projected on the screen of the touch screen display 19 based on the video data 42a, the voice data 42b, and the name data 42c prepared in advance, and the corresponding voice is reproduced from the speaker 25. When the streaming of the video data 42a and the audio data 42b is completed, the processor 36 disconnects the communication path in step S10. The processing operation of the processor 36 ends.

ストリーミングにあたって予めストリーミングデータ42には映像データ42a、音声データ42bおよび名前データ42cは登録される。登録にあたってパソコン45でアップロードプログラム52bは実行される。アップロードプログラム52bはサーバー14の大容量記憶装置37にパソコン45のプロセッサー47を接続する。プロセッサー47は、サーバー14に向けて、大容量記憶装置48に格納される映像データ42a、音声データ42bおよび名前データ42cを送信する。ビデオ通話の動画像は事前に撮影される。ビデオ通話の音声は動画像の録画に並行して録音される。名前を発声する音声は事前に録音される。ストリーミングデータ42の登録にあたって、プロセッサー47に接続されるキーボードやマウス(いずれも図示されず)、ディスプレイ51に基づきユーザーインターフェイスは構築される。 Video data 42a, audio data 42b, and name data 42c are registered in the streaming data 42 in advance for streaming. Upon registration, the upload program 52b is executed on the personal computer 45. The upload program 52b connects the processor 47 of the personal computer 45 to the large-capacity storage device 37 of the server 14. The processor 47 transmits the video data 42a, the audio data 42b, and the name data 42c stored in the large-capacity storage device 48 to the server 14. Video calls are captured in advance. The audio of the video call is recorded in parallel with the recording of the moving image. The voice that utters the name is pre-recorded. In registering the streaming data 42, a user interface is constructed based on the keyboard and mouse (none of which are shown) and the display 51 connected to the processor 47.

ここでは、映像データ42aの製作にあたって録画の開始から予め決められた時間にわたって音声にはブランク期間が形成される。ブランク期間では録画された動画像から人物の口元は消される。例えば動画像には人物の鼻から上だけが映し出される。あるいは、フロントカメラの位置合わせを装って被写体のぶれやずれが意図的に形成されてもよい。こうした映像データ42aの再生にあたって、ブランク期間に対応して音声データ42bには名前データ42cに基づき人物から発声される名前が差し込まれることができる。 Here, in the production of the video data 42a, a blank period is formed in the audio for a predetermined time from the start of recording. During the blank period, the person's mouth is erased from the recorded video. For example, a moving image shows only the top of a person's nose. Alternatively, blurring or deviation of the subject may be intentionally formed by pretending to be the alignment of the front camera. In reproducing such video data 42a, a name uttered by a person based on the name data 42c can be inserted into the audio data 42b corresponding to the blank period.

ストリーミングに先立ってサーバー14の電話帳データ41には予め会員情報が登録される。登録にあたってパソコン45で会員管理プログラム52aは実行される。会員管理プログラム52aはサーバー14の大容量記憶装置37にパソコン45のプロセッサー47を接続する。情緒安定化システム11の管理者はパソコン45経由でサーバー14の電話帳データ41にアクセスする。電話帳データ41に、会員の電話番号と、会員の名前と、会員から希望された人物に割り振られたサーバー14側の電話番号とが登録される。会員情報の登録にあたって、プロセッサー47に接続されるキーボードやマウス、ディスプレイ51に基づきユーザーインターフェイスは構築される。その他、会員情報は利用者のスマートホン13から登録されてもよい。 Prior to streaming, member information is registered in the telephone directory data 41 of the server 14 in advance. Upon registration, the member management program 52a is executed on the personal computer 45. The member management program 52a connects the processor 47 of the personal computer 45 to the large-capacity storage device 37 of the server 14. The administrator of the emotional stabilization system 11 accesses the telephone directory data 41 of the server 14 via the personal computer 45. The member's telephone number, the member's name, and the server 14-side telephone number assigned to the person desired by the member are registered in the telephone directory data 41. When registering member information, a user interface is constructed based on the keyboard, mouse, and display 51 connected to the processor 47. In addition, member information may be registered from the user's smartphone 13.

情緒安定化システム11の利用にあたって利用者はスマートホン13からサーバー14側の電話番号にコールする。個々の人物ごとにサーバー14側の電話番号は割り当てられることから、利用者は、電話番号を選ぶことで電話されたい希望の人物を選択することができる。コールの発信にあたってスマートホン13では電話機能プログラム33aが起動される。利用者は通常通りにスマートホン13の電話機能を利用する。例えば利用者はタッチスクリーンパネル19に映し出されるダイヤルパッドに基づきコールを発信することができる。その他、電話番号が予めスマートホン13の連絡先に登録されていれば、利用者は連絡先からコールを発信することができる。 When using the emotional stabilization system 11, the user calls the telephone number on the server 14 side from the smartphone 13. Since the telephone number on the server 14 side is assigned to each individual person, the user can select the desired person to be called by selecting the telephone number. When making a call, the telephone function program 33a is activated in the smartphone 13. The user uses the telephone function of the smart phone 13 as usual. For example, the user can make a call based on the dial pad displayed on the touch screen panel 19. In addition, if the telephone number is registered in the contact of the smart phone 13 in advance, the user can make a call from the contact.

スマートホン13とサーバー14との間で回線が確立されると、利用者は肉声データ40aに基づき留守電メッセージを聞くことができる。レシーバー22から肉声データ40aの音声は再生される。利用者は特定の人物から折り返しコールされることを心待ちにすることができる。 When the line is established between the smart phone 13 and the server 14, the user can hear the answering machine message based on the voice data 40a. The voice of the real voice data 40a is reproduced from the receiver 22. The user can look forward to being called back by a specific person.

サーバー14は利用者からのコールに応じて利用者のスマートホン13に向けて折り返しコールを発信する。このとき、スマートホン13では映像ストリーミング再生プログラム33cが実行される。映像ストリーミング再生プログラム33cが折り返しコールを受けると、スマートホン13では通知機能プログラム33bが実行される。通知機能プログラム33bは、例えば図6に示されるように、通常の着信と同様に、スマートホン13の待ち受け画面55に着信を表示する。利用者が「応答」アイコン56をタップすると、通信経路は確立される。利用者が「応答」アイコン56をタップしない限り、通信経路は確立されない。したがって、ストリーミングは開始されない。 The server 14 makes a return call to the user's smartphone 13 in response to the call from the user. At this time, the video streaming playback program 33c is executed on the smartphone 13. When the video streaming playback program 33c receives the call back, the notification function program 33b is executed on the smartphone 13. As shown in FIG. 6, for example, the notification function program 33b displays an incoming call on the standby screen 55 of the smart phone 13 in the same manner as a normal incoming call. When the user taps the "response" icon 56, the communication path is established. The communication path is not established unless the user taps the "response" icon 56. Therefore, streaming is not started.

通信経路が確立されると、サーバー14の映像ストリーミング再生コンポーネント39cはスマートホン13の映像ストリーミング再生プログラム33cに接続される。ビデオ通話の映像はストリーミングされる。図7に示されるように、ディスプレイパネル19aに映像は映し出される。スピーカー25から「あゆみ、ごめんね。やっと打ち合わせが終わった」「辛いことがあったら、おれに話してよ」「聞くからさ」「いっしょに楽しいこと考えよう」といった具合に、音声は再生される。擬似的にビデオ通話は実現される。ディスプレイパネル19aの画面には、フロントカメラ23の映像に基づきウインドウ57内に利用者が映し出される。 When the communication path is established, the video streaming playback component 39c of the server 14 is connected to the video streaming playback program 33c of the smartphone 13. Video of video calls is streamed. As shown in FIG. 7, the image is projected on the display panel 19a. The sound is played from the speaker 25, such as "Ayumi, I'm sorry. The meeting is finally over", "If you have a hard time, talk to me", "I'll listen", "Let's think about fun together". A pseudo video call is realized. On the screen of the display panel 19a, the user is projected in the window 57 based on the image of the front camera 23.

ビデオ通話の開始にあたって映像内の人物HMは利用者の「名前」を呼ぶ。したがって、利用者は、人物HMから個人的に気にかけられた感覚を抱くことができる。特に、自分で選んだひと、言い換えると、憧れるひと、尊敬するひと、好意を持つひとから名前を呼ばれるので、利用者の気持ちは上向くことができる。しかも、共通の映像でありながら、名前の呼びかけ中に映像中で人物HMの口元は消されることから、利用者は映像に違和感を抱かずに済む。ビデオ通話のリアル感は維持されることができる。 At the start of a video call, the person HM in the video calls the user's "name". Therefore, the user can have a feeling of personal concern from the person HM. In particular, the user's feelings can be improved because the name is called by the person who chooses himself, in other words, the person who admires, the person who respects, and the person who likes. Moreover, even though it is a common image, the mouth of the person HM is erased in the image while calling for a name, so that the user does not feel uncomfortable with the image. The realism of the video call can be maintained.

本実施形態では、折り返しコールに応じて通信経路は確立される。相手から電話を受ける状況は作り出される。通信経路が確立されると、予め準備された映像に基づきビデオ通話は再現されることができる。利用者は疑似的にビデオ通話を体験することができる。たとえ折り返しであっても、電話を受けることで、ひとは、相手から気にかけてもらった、相手から大切に思われていた、といった印象を抱く。利用者は、折り返しコールに応じて通常通りに受信の動作を実施すればよいことから、良好な臨場感は確保されることができる。その結果、ひとの気持ちは上向く。こうして疑似的なビデオ通話は、情緒の安定化を実現する仕組み作りに役立つ。 In the present embodiment, the communication path is established in response to the return call. A situation is created in which the other party receives a call. Once the communication path is established, the video call can be reproduced based on the video prepared in advance. The user can experience a pseudo video call. Even if you call back, when you receive a call, you get the impression that the other person has taken care of you and that the other person has taken good care of you. Since the user only needs to perform the reception operation as usual in response to the return call, a good sense of presence can be ensured. As a result, people's feelings improve. In this way, the pseudo video call helps to create a mechanism to realize emotional stabilization.

情緒安定化プログラム39はサーバー14で実行される。折り返しコールに先立ってサーバー14にはサーバー14以外の端末すなわちスマートホン13からコールが発信される(発呼される)。利用者から発せられるコールに応じて折り返しコールが発せられることは予め理解されることから、利用者は電話されたいときにだけ選択的にコールを発信することができる。利用者は、落ち込んだり、悲しんだり、苦しんだりしたときに折り返しコールを要求することができる。したがって、落ち込んだり、悲しんだり、苦しんだりしても、情緒は安定した状態を維持することができる。 The emotional stabilization program 39 is executed on the server 14. Prior to the call back, a call is sent (called) to the server 14 from a terminal other than the server 14, that is, the smartphone 13. Since it is understood in advance that a call back is made in response to a call made by the user, the user can selectively make a call only when he / she wants to be called. The user can request a call back when he / she is depressed, sad or suffering. Therefore, emotions can remain stable even when depressed, sad, or suffering.

ひとは、気にかけて欲しい相手から電話されると、嬉しい。憧れるひと、尊敬するひと、好意を持つひとから、勇気づけられ、元気づけられ、励まされると、気持ちは上向く。予め準備されたビデオ通話は個々のコールごとに紐付けられることから、利用者は、コールの発信先を選ぶことで、言葉がけされたい相手からのみ折り返しコールの電話を受け取ることができる。利用者は、自分を気にかけて欲しい相手からのみ電話を受け取ることができる。こうしたことは情緒の安定化に大いに貢献することができる。 People are happy when they are called by someone they want to care about. Feelings improve when you are encouraged, encouraged, and encouraged by those you admire, respect, and like. Since the video call prepared in advance is linked to each individual call, the user can receive the call back call only from the person who wants to speak by selecting the call destination. Users can only receive calls from people they want to care about. This can greatly contribute to emotional stabilization.

本実施形態に係る情緒安定化システム11では、利用者のコールから折り返しコールまでの時間差はランダムに設定される。利用者は折り返しコールの時刻を予想することができない。現実の場面と同様に、手が空き次第折り返し電話してきたように印象づけられることができる。したがって、折り返しコールの臨場感は高められることができる。 In the emotional stabilization system 11 according to the present embodiment, the time difference from the user's call to the return call is randomly set. The user cannot predict the time of the call back. As in the real world, you can get the impression that you are calling back as soon as you have a free hand. Therefore, the presence of the return call can be enhanced.

利用者は、サーバー14側の電話番号にコールすることに代えて、チャットメッセージやCメール(ショートメール)、Eメールでサーバー14に折り返しコールを要求してもよい。チャットメッセージは、例えばFaceTime、LINE、Messenger、WhatsApp、WeChat、Skypeその他のアプリ(スマートホン用ソフトウエアプログラム)で実現されることができる。チャットメッセージの実現にあたってチャットアプリプログラム33dは実行される。サーバー14では、チャットメッセージの受信や、Cメールの受信、Eメールの受信から時間差が計時されればよい。 Instead of calling the telephone number on the server 14 side, the user may request a return call from the server 14 by chat message, C-mail (short mail), or e-mail. The chat message can be realized by, for example, FaceTime, LINE, Messenger, WhatsApp, WeChat, Skype and other applications (software programs for smartphones). The chat application program 33d is executed to realize the chat message. On the server 14, the time difference from the reception of the chat message, the reception of the C mail, and the reception of the e-mail may be timed.

折り返しコールには、既存のチャットメッセージアプリが用いられてもよい。サーバー14の電話機能コンポーネント39aは予めチャットメッセージアプリ内にアカウントを有する。アカウントは利用者のスマートホン13でチャットメッセージアプリに「友だち」や「連絡先」として追加される。電話機能コンポーネント39aは折り返しコールの発信に応じて利用者のチャットメッセージアプリとの間で通信経路を確立する。プロセッサー36は大容量記憶装置37から対象のスマートホン13に向けて映像データ42a、音声データ42bおよび名前データ42cを配信する。スマートホン13のチャットメッセージアプリ内でビデオ通話は実現される。 An existing chat message application may be used for the call back. The telephone function component 39a of the server 14 has an account in the chat message application in advance. The account is added as "friends" and "contacts" to the chat message application on the user's smartphone 13. The telephone function component 39a establishes a communication path with the user's chat message application in response to the outgoing call back. The processor 36 distributes video data 42a, audio data 42b, and name data 42c from the large-capacity storage device 37 to the target smartphone 13. Video calls are realized within the chat message app of the smart phone 13.

39…プログラム(情緒安定化プログラム)。
39 ... Program (emotional stabilization program).

Claims (3)

コールを受ける処理と、
前記コールの発呼者を特定する処理と、
折り返し前記発呼者に向かって折り返しコールを発信する処理と、
前記折り返しコールに応じて通信経路が確立されると、前記発呼者の端末に向けて、予め準備されたビデオ通話の映像を映し出し音声を再生するデータをストリーミングする処理と
をプロセッサーに実行させることを特徴とするプログラム。
The process of receiving a call and
The process of identifying the caller of the call and
Call back The process of making a call back to the caller,
When the communication path is established in response to the return call, the processor is made to execute a process of displaying the video of the video call prepared in advance and streaming the data for reproducing the voice toward the terminal of the caller. A program featuring.
請求項1に記載のプログラムにおいて、前記コールから前記折り返しコールまでの時間差はランダムに設定されることを特徴とするプログラム。 The program according to claim 1, wherein the time difference from the call to the return call is randomly set. 請求項1または2に記載のプログラムにおいて、前記ビデオ通話の映像で、発声者の口元を消しながら前記発呼者の名前を発声させることを特徴とするプログラム。
The program according to claim 1 or 2, wherein the name of the caller is uttered while erasing the mouth of the caller in the video of the video call.
JP2019112970A 2019-06-18 2019-06-18 Emotion stabilization program Pending JP2020205556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019112970A JP2020205556A (en) 2019-06-18 2019-06-18 Emotion stabilization program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112970A JP2020205556A (en) 2019-06-18 2019-06-18 Emotion stabilization program

Publications (1)

Publication Number Publication Date
JP2020205556A true JP2020205556A (en) 2020-12-24

Family

ID=73837623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019112970A Pending JP2020205556A (en) 2019-06-18 2019-06-18 Emotion stabilization program

Country Status (1)

Country Link
JP (1) JP2020205556A (en)

Similar Documents

Publication Publication Date Title
TW527825B (en) A method and system for internet-based video chat
US9083844B2 (en) Computer-readable medium, information processing apparatus, information processing system and information processing method
US11570291B1 (en) Text assisted telephony on wireless device method and apparatus
CN105594163B (en) Voice communication with real-time status notification
US8285257B2 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
US20080252637A1 (en) Virtual reality-based teleconferencing
US20090106670A1 (en) Systems and methods for providing services in a virtual environment
WO2006025461A1 (en) Push information communication system accompanied by telephone communication
JPWO2008105429A1 (en) Communication terminal and control method thereof
CN105915521B (en) Multi-party call management method, device and terminal
CN113055628A (en) Displaying video call data
KR20140107189A (en) Video messaging
JP2014512049A (en) Voice interactive message exchange
CN104539871B (en) Multimedia session method and device
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
CN105677023B (en) Information demonstrating method and device
JP6283160B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
KR101632436B1 (en) IP network based Social Network Service and chat application software system
TW201136282A (en) An ambient telephone communication system, a movement member, method, and computer readable medium therefor
TW201141226A (en) Virtual conversing method
JP2020205556A (en) Emotion stabilization program
CN114268691A (en) Call method, device, terminal equipment and readable storage medium
CN106657533B (en) Call handling method and device
WO2016021584A1 (en) Terminal device and management server