JP2018515979A - Communication processing method and electronic apparatus - Google Patents

Communication processing method and electronic apparatus Download PDF

Info

Publication number
JP2018515979A
JP2018515979A JP2017556135A JP2017556135A JP2018515979A JP 2018515979 A JP2018515979 A JP 2018515979A JP 2017556135 A JP2017556135 A JP 2017556135A JP 2017556135 A JP2017556135 A JP 2017556135A JP 2018515979 A JP2018515979 A JP 2018515979A
Authority
JP
Japan
Prior art keywords
electronic device
communication state
video frame
communication
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017556135A
Other languages
Japanese (ja)
Inventor
チェン,シアオボ
シアン,ハン
ワン,シンリアン
リ,ビン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2018515979A publication Critical patent/JP2018515979A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23608Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Abstract

本発明は通信処理方法及び電子装置を開示し、前記方法は、第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行うことと、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることと、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御することと、を含む。【選択図】図1The present invention discloses a communication processing method and an electronic device, wherein the method controls the first electronic device to be in a first communication state, and in the first communication state, the first electronic device has at least one In response to the first operation, the second electronic device is controlled to switch from the first communication state to the second communication state in response to the first operation, and in the second communication state, the at least one first Holding an interaction of audio data with two electronic devices, sharing a video frame with at least one second electronic device, and switching from the second communication state to the first communication state in response to a second operation Controlling. [Selection] Figure 1

Description

本発明は情報処理分野の通信管理技術に関し、特に通信処理方法及び電子装置に関する。   The present invention relates to a communication management technique in the field of information processing, and more particularly to a communication processing method and an electronic apparatus.

技術の発展に伴い、ネットワーク電話(VOIP:Voice over Internet Protocol)に基づく現在の音声インタラクション製品において、通話の参加者全員が単に音声通話だけを行うか、それとも単にビデオ通話だけを行い、しかも、基本的にビデオ通話を閉じると共に、今回の通話もまるごと閉じられている。このようなビデオ通話のコミュニケーション方式には以下の二つの欠点がある。第1に、片方により一方的にビデオをシェアすることができない。例えば、双方のうち、片方が相手側をビデオ通話に招待した場合、相手側がビデオ通話に応答さえすれば、自分のカメラが自動的に起動されてビデオフレームを収集し始める。当時、相手側が応答の都合がよくない場合、通常、招待側の招待を直接に拒否し、今回の通話を終了する。だが、このようなケースでは、招待側の意図は、相手側のビデオを同時に見る必要がなく、単に自分のビデオを相手側とシェアすることだけを望んでいる可能性がある。第2に、通話中、ビデオを実施するか否かを制御する主導権がない。例えば、いつ自分のビデオを開閉するかを随時に制御することができず、即ち、自分がビデオを起動する時に、通話の参加者は自分のビデオを見ることができるが、そうではない場合、自分がビデオを終了する時に、通話の参加者は自分のビデオを見ることができない。   With the development of technology, in the current voice interaction products based on the VoIP (Voice over Internet Protocol), all participants in the call simply make a voice call or just a video call, and the basics In addition to closing the video call, this call is also closed. Such a video communication method has the following two drawbacks. First, one side cannot share video unilaterally. For example, if one of the two invites the other party to a video call, as long as the other party answers the video call, their camera will be automatically activated and begin collecting video frames. At that time, if the other party is not convenient to respond, the invitation is usually rejected directly and the call is terminated. But in such a case, the inviting party's intention may not want to watch the other party's video at the same time, but simply want to share their video with the other party. Second, there is no initiative to control whether or not to implement video during a call. For example, you cannot control when to open and close your video at any time, that is, when you start the video, call participants can watch their video, but if not, Call participants cannot see their video when they end the video.

そのため、先行技術においては、通話の参加者はビデオフレームをシェアするタイミングを主動的に制御することができず、サーバの処理リソースの使用を低減することができなく、通話双方の滑らかさ(流暢度)を保つことができない。   For this reason, in the prior art, call participants cannot actively control the timing of sharing video frames, cannot reduce the use of server processing resources, and smooth both calls (fluency). Degree) can not be kept.

これを鑑みて、本発明の実施例は、通信処理方法及び電子装置を提供して、少なくとも先行技術における上記の課題を解決することを目的とする。   In view of this, an embodiment of the present invention is to provide a communication processing method and an electronic device, and to solve at least the above-described problems in the prior art.

本発明の実施例は通信処理方法を提供し、第1電子装置に適用し、前記方法は、
前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行うことと、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることと、
第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御することと、
を含む。
An embodiment of the present invention provides a communication processing method applied to a first electronic device, the method comprising:
Controlling the first electronic device to be in a first communication state, and in the first communication state, the first electronic device interacts with audio data with at least one second electronic device;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and Sharing a video frame with at least one second electronic device;
In response to a second operation, controlling to switch from the second communication state to the first communication state;
including.

本発明の実施例はさらに、電子装置を提供し、
第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように構成される第1処理ユニットと、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアするように構成される第2処理ユニットと、
を含む。
Embodiments of the present invention further provide an electronic device,
The first electronic device is controlled to enter a first communication state, and in the first communication state, the first electronic device interacts with voice data with at least one second electronic device and responds to a second operation. A first processing unit configured to control to switch from the second communication state to the first communication state;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and A second processing unit configured to share a video frame with at least one second electronic device;
including.

本発明の実施例に提供されている通信処理方法及び電子装置は、ユーザが第1通信状態にある時に、音声データだけをインタラクションすることができ、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集されたビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えられる。このように、音声通信のインタラクションの過程において、ユーザがビデオフレームのインタラクションのタイミングを自在に制御することができ、通信時のビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   According to the communication processing method and the electronic device provided in the embodiment of the present invention, when the user is in the first communication state, only the voice data can be interacted, and the electronic device is operated in response to the first operation. Control is made to switch to the two communication state, and not only the transmission of audio data, but also the currently collected video frame is shared, and in response to the second operation, the electronic device is again switched to the first communication state. . In this way, in the process of voice communication interaction, the user can freely control the timing of video frame interaction, and the server used to continuously transfer the video frame and voice data during communication. Processing resources can be reduced and the smoothness of both calls can be maintained.

本発明の実施例における通信処理方法フローを示す図である。It is a figure which shows the communication processing method flow in the Example of this invention. 本発明の実施例における接続場面を示す図である。It is a figure which shows the connection scene in the Example of this invention. 本発明の実施例におけるビデオフレーム送信のインターフェースを示す図である。It is a figure which shows the interface of the video frame transmission in the Example of this invention. 本発明の実施例におけるビデオフレームの送信及び解析フローを示す図である。It is a figure which shows the transmission and analysis flow of a video frame in the Example of this invention. 本発明の実施例におけるビデオフレームのインタラクションのフローを示す図である。It is a figure which shows the flow of interaction of the video frame in the Example of this invention. 本発明の実施例におけるビデオフレームのインタラクションを終了するフローを示す図である。It is a figure which shows the flow which complete | finishes the interaction of the video frame in the Example of this invention. 本発明の実施例におけるビデオフレームを二人で共有する操作インターフェースを示す図である。It is a figure which shows the operation interface which shares a video frame in the Example of this invention with two people. 本発明の実施例におけるビデオフレームを複数の人で共有するフローを示す図である。It is a figure which shows the flow which shares the video frame in the Example of this invention with several people. 本発明の実施例におけるビデオフレームを複数の人で共有する操作インターフェースを示す図である。It is a figure which shows the operation interface which shares the video frame in the Example of this invention with several people. 本発明の実施例における電子装置の構成を示す第1の図である。It is a 1st figure which shows the structure of the electronic device in the Example of this invention. 本発明の実施例における電子装置の構成を示す第2の図である。It is a 2nd figure which shows the structure of the electronic device in the Example of this invention. 本発明の実施例における電子装置の構成を示す第3の図である。It is a 3rd figure which shows the structure of the electronic device in the Example of this invention.

下記において、図面及び具体的な実施例を参照して、本発明の実施例をより詳しく説明する。   In the following, embodiments of the present invention will be described in more detail with reference to the drawings and specific embodiments.

実施例1
本発明の実施例は通信処理方法を提供し、第1電子装置に適用し、図1に示すように、前記方法はステップ11〜13を含む。
Example 1
An embodiment of the present invention provides a communication processing method, which is applied to a first electronic device, and the method includes steps 11 to 13 as shown in FIG.

ステップ11において、前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行う。   In step 11, the first electronic device is controlled to enter a first communication state, and in the first communication state, the first electronic device interacts with at least one second electronic device in audio data.

ステップ12において、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアする。   In step 12, in response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, voice data interaction with the at least one second electronic device is performed. Hold and share the video frame with at least one second electronic device.

ステップ13において、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御する。   In step 13, control is performed to switch from the second communication state to the first communication state in response to the second operation.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

好ましくは、ステップ11を実施する前に、前記第1電子装置は少なくとも一つの第2電子装置と通信接続を確立することが可能であり、例えば、図2に示すように、第1電子装置21が第2電子装置221と第2電子装置222への通信接続を確立する。   Preferably, before performing step 11, the first electronic device can establish a communication connection with at least one second electronic device, for example, as shown in FIG. Establishes a communication connection to the second electronic device 221 and the second electronic device 222.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

上記のステップ12において、前記第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持することと、
少なくとも一つのビデオフレームを収集し、前記少なくとも一つのビデオフレームを前記少なくとも一つの第2電子装置に送信することと、
を含む。
In the above step 12, in response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, audio data with the at least one second electronic device And sharing a video frame with at least one second electronic device,
Controlling to switch from the first communication state to the second communication state in response to the first operation, and maintaining the interaction of the audio data with the at least one second electronic device in the second communication state; ,
Collecting at least one video frame and transmitting the at least one video frame to the at least one second electronic device;
including.

ここで、前記少なくとも一つのビデオフレームは、少なくとも一つの画像情報を用いて、収集時刻に基づいて組み合わせして得られた少なくとも一つのビデオフレームであってもよい。   Here, the at least one video frame may be at least one video frame obtained by combining at least one image information based on the collection time.

ここで、前記収集した少なくとも一つのビデオフレームは、カメラを起動し、カメラを介して周期的に収集したものであってもよい。ここで、前記周期は、カメラの性能によって設定してもよく、例えば、2ms毎に一回画像情報を収集して、一つのビデオフレームとするように設定してもよい。   Here, the collected at least one video frame may be a frame that is periodically collected via the camera when the camera is activated. Here, the period may be set according to the performance of the camera. For example, the image information may be collected once every 2 ms and set as one video frame.

好ましくは、本実施例において、第1操作又は第2操作に応答する前に、第1操作又は第2操作の検出も行い、具体的に、下記の通りである。   Preferably, in the present embodiment, the first operation or the second operation is also detected before responding to the first operation or the second operation, and is specifically as follows.

前記第1操作に応答する前に、前記方法はさらに、第1タッチ操作エリアに対して操作する時間の長さが第1閾値より大きいと検出された場合、第1操作を検出したと確定することを含む。   Prior to responding to the first operation, the method further determines that the first operation has been detected if it is detected that the length of time to operate on the first touch operation area is greater than a first threshold. Including that.

前記第2操作に応答する前に、前記方法はさらに、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定することを含む。   Prior to responding to the second operation, the method further includes determining that the second operation has been detected if it is detected that the touch operation on the first touch operation area has been canceled.

ここで、前記第1タッチ操作エリアは、実際の状況に応じて設定されたタッチ操作を検出するためのタッチポイント、又は、タッチ操作を検出するための予め設定されたエリアであってもよい。   Here, the first touch operation area may be a touch point for detecting a touch operation set in accordance with an actual situation or a preset area for detecting a touch operation.

前記タッチポイントは少なくとも、タッチポイントの横座標と縦座標を含むことが可能であり、前記予め設定されたエリアは少なくとも、該エリアの左下角の横縦座標と右上角の横縦座標を含む。   The touch point may include at least the abscissa and ordinate of the touch point, and the preset area includes at least the abscissa of the lower left corner and the abscissa of the upper right corner of the area.

また、前記第1タッチ操作エリアは、図3に示すように第1電子装置上に表示されているバーチャルボタン31と表現されてもよい。   The first touch operation area may be expressed as a virtual button 31 displayed on the first electronic device as shown in FIG.

前記操作時間の長さは、ユーザが前記第1タッチ操作エリアを押下する時間の長さであってもよく、言い換えれば、ユーザが前記第1タッチ操作エリアを押下した場合、カメラを起動するように制御し、ユーザが第1タッチ操作エリアの押下操作をキャンセルしたことを検出するまで、カメラを介して少なくとも一つのビデオフレームを収集して、少なくとも一つの第2電子装置に送信する。   The length of the operation time may be the length of time that the user presses the first touch operation area. In other words, when the user presses the first touch operation area, the camera is activated. Until at least one video frame is collected through the camera and transmitted to at least one second electronic device until it is detected that the user has canceled the pressing operation of the first touch operation area.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集された画像ファイルのビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えかれることができる。このようにすれば、音声通信のインタラクションの時に、ユーザが画像ファイルのビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時の画像ファイルのビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the video frames of the currently collected image file, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, at the time of voice communication interaction, the user can freely control the timing of the video frame interaction of the image file, so that the video frame and voice data of the image file at the time of communication can be maintained continuously. The processing resources of the server used to transfer to the server can be reduced, and the smoothness of both calls can be maintained.

実施例2
本発明の実施例は通信処理方法を提供し、第1電子装置を適用し、図1に示すように、前記方法は、ステップ11〜13を含む。
Example 2
An embodiment of the present invention provides a communication processing method and applies a first electronic device, and the method includes steps 11 to 13 as shown in FIG.

ステップ11において、前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行う。   In step 11, the first electronic device is controlled to enter a first communication state, and in the first communication state, the first electronic device interacts with at least one second electronic device in audio data.

ステップ12において、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアする。   In step 12, in response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, voice data interaction with the at least one second electronic device is performed. Hold and share the video frame with at least one second electronic device.

ステップ13において、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御する。   In step 13, control is performed to switch from the second communication state to the first communication state in response to the second operation.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

好ましくは、ステップ11を実施する前に、前記第1電子装置は少なくとも一つの第2電子装置と通信接続を確立することが可能であり、例えば、図2に示すように、第1電子装置21が第2電子装置221と第2電子装置222への通信接続を確立する。   Preferably, before performing step 11, the first electronic device can establish a communication connection with at least one second electronic device, for example, as shown in FIG. Establishes a communication connection to the second electronic device 221 and the second electronic device 222.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

本実施例と実施例1との相違点としては、上記ステップ12において、前記第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
少なくとも一つの第2電子装置より送信された少なくとも一つのビデオフレームを受信することと、
少なくとも一つの第2電子装置より送信された前記少なくとも一つのビデオフレームを解析することと、
を含む。
The difference between the present embodiment and the first embodiment is that, in step 12, the control is performed to switch from the first communication state to the second communication state in response to the first operation, and in the second communication state, Holding an audio data interaction with the at least one second electronic device and sharing a video frame with the at least one second electronic device,
Receiving at least one video frame transmitted from at least one second electronic device;
Analyzing the at least one video frame transmitted from at least one second electronic device;
including.

ここで、前記ビデオフレームを解析することは、第1電子装置がビデオの解析機能によってビデオフレームを解析し、一つ又は複数のビデオフレームに対応されている画像を得ることであってもよい。   Here, analyzing the video frame may be that the first electronic device analyzes the video frame by a video analysis function to obtain an image corresponding to one or a plurality of video frames.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集されたビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えられることができる。このようにすれば、音声通信のインタラクションの時に、ユーザがビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時のビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the currently collected video frame, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, the user can freely control the timing of video frame interaction at the time of voice communication interaction, thereby being used to continuously transfer video frame and voice data during communication. Server processing resources can be reduced, and the smoothness of both calls can be maintained.

実施例3
本発明の実施例は通信処理方法を提供し、第1電子装置を適用し、図1に示すように、前記方法は、ステップ11〜13を含む。
Example 3
An embodiment of the present invention provides a communication processing method and applies a first electronic device, and the method includes steps 11 to 13 as shown in FIG.

ステップ11において、前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行う。   In step 11, the first electronic device is controlled to enter a first communication state, and in the first communication state, the first electronic device interacts with at least one second electronic device in audio data.

ステップ12において、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアする。   In step 12, in response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, voice data interaction with the at least one second electronic device is performed. Hold and share the video frame with at least one second electronic device.

ステップ13において、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御する。   In step 13, control is performed to switch from the second communication state to the first communication state in response to the second operation.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

好ましくは、ステップ11を実施する前に、前記第1電子装置は少なくとも一つの第2電子装置と通信接続を確立することが可能であり、例えば、図2に示すように、第1電子装置21が第2電子装置221と第2電子装置222への通信接続を確立する。   Preferably, before performing step 11, the first electronic device can establish a communication connection with at least one second electronic device, for example, as shown in FIG. Establishes a communication connection to the second electronic device 221 and the second electronic device 222.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

上記の二つの実施例との相違点としては、本実施例は一つの場面を提供し、該場面において、第1電子装置は、ビデオフレームを収集して送信するだけではなく、ビデオフレームを受信して表示することもできる。具体的に、下記の通りである。   The difference from the above two embodiments is that this embodiment provides a scene in which the first electronic device not only collects and transmits video frames but also receives video frames. Can also be displayed. Specifically, it is as follows.

上記ステップ12において、前記第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つのビデオフレームを収集し、前記少なくとも一つのビデオフレームを前記少なくとも一つの第2電子装置に送信することと、
また、少なくとも一つの第2電子装置より送信された少なくとも一つのビデオフレームを受信し、第2電子装置より送信された少なくとも一つのビデオフレームを解析することと、
を含み、前記第2電子装置より送信されたビデオフレームを解析した後に、前記ビデオフレームをレンダリングして表示することもできる。
In step 12, in response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, audio data with the at least one second electronic device is Holding the interaction and sharing the video frame with at least one second electronic device,
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and Collecting at least one video frame and transmitting the at least one video frame to the at least one second electronic device;
Receiving at least one video frame transmitted from at least one second electronic device and analyzing at least one video frame transmitted from the second electronic device;
The video frame can be rendered and displayed after analyzing the video frame transmitted from the second electronic device.

好ましくは、本実施例において、前記ビデオフレームを送信することは、
ビデオフレームのシェア要求をシグナリングサーバに送信することと、
前記シグナリングサーバによって前記ビデオフレームのシェア要求を少なくとも一つの第2電子装置に送信することと、
カメラを起動し、少なくとも一つの画像情報を収集し、前記画像情報をコーディングしてビデオフレームを得ることと、
ビデオフレームをデータサーバに送信することと、
前記データサーバより前記ビデオフレームを前記少なくとも一つの第2電子装置に転送することと、
を含み、ここで、前記シグナリングサーバは、VOIPシグナリングサーバであってもよく、移動セルラネットワークのシグナリングサーバであってもよく、
前記データサーバは、VOIPデータサーバであってもよく、又は移動セルラネットワーク内のデータサーバであってもよい。
Preferably, in this embodiment, transmitting the video frame comprises
Sending a video frame share request to the signaling server;
Sending the video frame share request to at least one second electronic device by the signaling server;
Activating the camera, collecting at least one image information, coding the image information to obtain a video frame;
Sending a video frame to a data server;
Transferring the video frame from the data server to the at least one second electronic device;
Wherein the signaling server may be a VOIP signaling server or a mobile cellular network signaling server,
The data server may be a VOIP data server or a data server in a mobile cellular network.

好ましくは、本実施例において、ビデオフレーム、又は音声データに、対応するタイムスタンプをそれぞれ追加することによって、送信されたビデオフレーム及び音声データの受信端における同期を保証し、具体的に、音声データを収集した時に、音声データにタイムスタンプを追加し、ビデオフレームを収集した時に、収集されたビデオフレームに対応するタイムスタンプを追加する。ここで、前記タイムスタンプは音声データ又はビデオフレームを収集した時刻であってもよい。   Preferably, in the present embodiment, the corresponding time stamp is added to the video frame or the audio data, respectively, thereby ensuring the synchronization at the receiving end of the transmitted video frame and audio data. When a video frame is collected, a time stamp is added to the audio data, and when a video frame is collected, a time stamp corresponding to the collected video frame is added. Here, the time stamp may be a time when audio data or a video frame is collected.

前記少なくとも一つの第2電子装置より送信された前記少なくとも一つのビデオフレームを解析することは、
音声データ内の音声とタイムスタンプを解析し、ビデオフレームとそれに対応するタイムスタンプを解析することと、
解析されたタイムスタンプに基づいて、音声データとビデオフレームを出力するように制御することと、
を含む。
Analyzing the at least one video frame transmitted from the at least one second electronic device;
Analyzing audio and time stamps in audio data, analyzing video frames and corresponding time stamps,
Controlling to output audio data and video frames based on the parsed timestamps;
including.

本実施例において、前記解析されたタイムスタンプに基づいて、音声データとビデオフレームを出力するように制御する方式は、同じタイムスタンプを有する音声データとビデオフレームとを同時に出力することであってもよい。   In the present embodiment, the method of controlling to output audio data and video frames based on the analyzed time stamp may be to output audio data and video frames having the same time stamp at the same time. Good.

好ましくは、本実施例において、第1操作又は第2操作に応答する前に、第1操作又は第2操作の検出も行い、具体的に、下記の通りである。   Preferably, in the present embodiment, the first operation or the second operation is also detected before responding to the first operation or the second operation, and is specifically as follows.

前記第1操作に応答する前に、前記方法はさらに、第1タッチ操作エリアに対して操作する時間の長さが第1閾値より大きいと検出された場合、第1操作を検出したと確定することを含む。   Prior to responding to the first operation, the method further determines that the first operation has been detected if it is detected that the length of time to operate on the first touch operation area is greater than a first threshold. Including that.

前記第2操作に応答する前に、前記方法はさらに、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定することを含む。   Prior to responding to the second operation, the method further includes determining that the second operation has been detected if it is detected that the touch operation on the first touch operation area has been canceled.

ここで、前記第1タッチ操作エリアは、実際の状況に応じて設定されたタッチ操作を検出するためのタッチポイント、又は、タッチ操作を検出するための予め設定されたエリアであってもよい。タッチポイントは少なくとも、タッチポイントの横座標と縦座標を含むことが可能であり、前記予め設定されたエリアは少なくとも、該エリアの左下角の横縦座標と右上角の横縦座標を含む。   Here, the first touch operation area may be a touch point for detecting a touch operation set in accordance with an actual situation or a preset area for detecting a touch operation. The touch point can include at least the abscissa and ordinate of the touch point, and the preset area includes at least the abscissa of the lower left corner and the abscissa of the upper right corner of the area.

また、前記第1タッチ操作エリアは、図3に示すように第1電子装置上に表示されているバーチャルボタン31と表現されてもよい。本実施例において、前記第1タッチ操作エリアを押下してトリガーされる機能を「一瞥」操作と設定してもよい。   The first touch operation area may be expressed as a virtual button 31 displayed on the first electronic device as shown in FIG. In this embodiment, a function triggered by pressing the first touch operation area may be set as a “glance” operation.

前記操作時間の長さは、ユーザが前記第1タッチ操作エリアを押下する時間の長さであってもよく、言い換えれば、ユーザが前記第1タッチ操作エリアを押下した場合、カメラを起動するように制御し、ユーザが第1タッチ操作エリアの押下操作をキャンセルすることを検出するまで、カメラを介して少なくとも一つのビデオフレームを収集する。   The length of the operation time may be the length of time that the user presses the first touch operation area. In other words, when the user presses the first touch operation area, the camera is activated. And at least one video frame is collected through the camera until it is detected that the user cancels the pressing operation of the first touch operation area.

さらに、本実施例において、前記少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
ビデオフレームを前記少なくとも一つの第2電子装置のうちの全ての第2電子装置に送信すること、
又は、
前記少なくとも一つの第2電子装置のうちからターゲット第2電子装置を選出し、前記ビデオフレームを前記ターゲット第2電子装置に送信すること、
を含む。
Furthermore, in this embodiment, sharing a video frame with the at least one second electronic device includes:
Transmitting a video frame to all second electronic devices of the at least one second electronic device;
Or
Selecting a target second electronic device from among the at least one second electronic device and transmitting the video frame to the target second electronic device;
including.

言い換えれば、第1電子装置は、複数の電子装置と音声データのインタラクションを行う第1通信状態の後に、第2通信状態に切り替えて、収集された画像を全ての第2電子装置に送信するように選択してもよく、複数の電子装置から一つのターゲット装置を選出して、画像を選出されたターゲット装置に送信してもよい。   In other words, the first electronic device switches to the second communication state after the first communication state in which the voice data interacts with a plurality of electronic devices, and transmits the collected images to all the second electronic devices. Alternatively, one target device may be selected from a plurality of electronic devices, and an image may be transmitted to the selected target device.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集されたビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えられることができる。このようにすれば、音声通信のインタラクションの時に、ユーザがビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時のビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the currently collected video frame, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, the user can freely control the timing of video frame interaction at the time of voice communication interaction, thereby being used to continuously transfer video frame and voice data during communication. Server processing resources can be reduced, and the smoothness of both calls can be maintained.

実施例4
本実施例において、シグナリングサーバとデータサーバがVOIPシグナリングサーバとVOIPデータサーバであることを例として、ビデオフレームの伝送操作を説明する。
Example 4
In this embodiment, the video frame transmission operation will be described by taking the case where the signaling server and the data server are the VOIP signaling server and the VOIP data server as an example.

図4に示すように、リアルタイムビデオの簡単な実現フローチャートを示しており、ここで、VOIPシグナリングサーバは、主に通話過程における状態に対して制御と同期を行い、データサーバは、主にビデオ又は音声データに対して転送(透過伝送)を行い、下記、M1とM2という二つの装置の間でリアルタイムビデオを行うフローを説明し、ここで装置M1が第1電子装置であり、装置M2が第2電子装置である。   As shown in FIG. 4, a simple flow chart of real-time video is shown, in which the VOIP signaling server mainly controls and synchronizes the state in the call process, and the data server mainly A flow for performing transmission (transparent transmission) on audio data and performing real-time video between the two devices M1 and M2 will be described below, where the device M1 is a first electronic device and the device M2 is a first device. 2 electronic devices.

1.M1はカメラ装置を起動し、ビデオフレームを収集する。   1. M1 activates the camera device and collects video frames.

2.ビデオコーデックエンジンは、M1より収集されたビデオフレームに対してエンコーディング処理を行う。   2. The video codec engine performs an encoding process on the video frames collected from M1.

3.ビデオフレームをエンコーディングしてから、M1はそれに対してネットワークのパケット化を行い、UDP方式でVOIPデータサーバに送信する。   3. After encoding the video frame, M1 packetizes the network and sends it to the VOIP data server using the UDP method.

4.VOIPデータサーバは、ビデオフレームを装置M2に透過伝送する。   4). The VOIP data server transparently transmits the video frame to the device M2.

5.装置M2は、ビデオフレームを受信して解凍する。   5. The device M2 receives and decompresses the video frame.

6.ビデオコーデックエンジンは、ビデオフレームに対してデコーディング処理を行う。   6). The video codec engine performs a decoding process on the video frame.

7.装置M2は、デコーディングされたビデオフレームに対してレンダリングと表示を行う。   7). Device M2 renders and displays the decoded video frame.

好ましくは、本実施例において、二つの電子装置の間の音声データとビデオフレームのインタラクション操作の例示、および1対多の電子装置の間の音声データとビデオフレームのインタラクション操作の例示をそれぞれ提供している。   Preferably, in this embodiment, an example of an interaction operation between audio data and video frame between two electronic devices and an example of an interaction operation between audio data and video frame between one-to-many electronic devices are respectively provided. ing.

例示1.二人の間の「一瞥」インタラクションは、リアルタイムビデオ技術に基づく遊び方であり、ここで、一つのボタン(類似な形式に限定されない)を提供し、ボタンを持続的に押下して相手側へのリアルタイムビデオの送信が始まり、ボタンを放すと、相手側へのリアルタイムビデオの送信が完了する。ユーザAとユーザBの間の「一瞥」インタラクションのフローを例として、4種類のインタラクションのケースが含まれ、図5に示すように、二人の間の「一瞥」は、リアルタイムビデオ技術に基づくものであり、ここで一つのボタンを提供し、ユーザAが装置により提供されている表示インターフェースにより提供されている第1タッチ操作エリア、即ち一つのバーチャルボタンを持続的に押下した時に、「一瞥」操作がトリガーされ、言い換えれば、ユーザB、即ち第2電子装置にリアルタイム的に収集されたビデオフレームを送信する操作を開始するようにトリガーされる。それに対して、ボタンを放すと、「一瞥」操作が完了し、相手側へのリアルタイムビデオの送信を終了する。具体的に、下記のケースを含む。   Example 1 “Glance” interaction between two people is a way of playing based on real-time video technology, where one button (not limited to a similar format) is provided and the button is continuously pressed to the other party Real-time video transmission starts, and when the button is released, the real-time video transmission to the other party is completed. As an example, the flow of “glance” interaction between user A and user B includes four types of interaction cases. As shown in FIG. 5, “glance” between two people is based on real-time video technology. When one button is provided, and the user A continuously presses the first touch operation area provided by the display interface provided by the apparatus, that is, one virtual button, The operation is triggered, in other words, the user B, i.e. the second electronic device, is triggered to initiate the operation of transmitting the collected video frames in real time. On the other hand, when the button is released, the “glance” operation is completed and the transmission of the real-time video to the other party is terminated. Specifically, the following cases are included.

ケース1は、一方向のビデオのシェアである。   Case 1 is a one-way video share.

1)〜2)ユーザAがボタンを持続的に押下し、ビデオのシェア要求をVOIPシグナリングサーバに送信し、カメラを起動し、ビデオの収集を開始する。ここで、前記ボタンは、実際の状況に応じて設定されたボタンであってもよい。   1) -2) User A continuously presses the button, sends a video share request to the VOIP signaling server, activates the camera, and starts collecting video. Here, the button may be a button set according to an actual situation.

3)ユーザAがビデオのシェアを要求したことをVOIPシグナリングサーバよりユーザBに通知する。   3) Notify user B from the VOIP signaling server that user A has requested video sharing.

4)〜5)ユーザAが収集されたリアルタイムビデオフレームをVOIPデータサーバに送信し、そしてVOIPデータサーバがビデオフレームをユーザBに透過伝送する。   4) to 5) User A transmits the collected real-time video frame to the VOIP data server, and the VOIP data server transmits the video frame to user B transparently.

6)ユーザBがユーザAからのリアルタイムビデオフレームを受信してから、3)の通知を受信しているか否かをまずチェックし、受信した場合、ビデオフレームのレンダリングと表示を行う。   6) After user B receives the real-time video frame from user A, it first checks whether the notification of 3) is received, and if received, renders and displays the video frame.

ケース2は、双方向のビデオのシェアである。   Case 2 is an interactive video share.

7)〜8)ケース1の上で、ユーザBもビデオのシェア要求をVOIPシグナリングサーバに送信し、カメラを起動してビデオフレームを収集する。   7) -8) On Case 1, User B also sends a video share request to the VOIP signaling server, activates the camera, and collects video frames.

9)ユーザBが「一瞥」を開始したことをVOIPシグナリングサーバよりユーザAに通知する。   9) The user A is notified from the VOIP signaling server that the user B has started “glance”.

10)〜11)ユーザBが収集されたリアルタイムビデオフレームをVOIPデータサーバに送信し、そしてVOIPデータサーバがビデオフレームをユーザAに透過伝送する。   10) to 11) User B transmits the collected real-time video frame to the VOIP data server, and the VOIP data server transmits the video frame to user A transparently.

12)ユーザAがユーザBからのリアルタイムビデオフレームを受信してから、9)の通知を受信しているか否かをまずチェックし、受信した場合、ビデオフレームのレンダリングと表示を行う。このようにユーザAとBの間のリアルタイムビデオを同時的にシェアするフローが完了する。   12) After user A receives the real-time video frame from user B, it first checks whether the notification of 9) is received, and if received, renders and displays the video frame. In this way, the flow of simultaneously sharing the real-time video between the users A and B is completed.

ケース3は、片方がビデオのシェアを終了することである。   Case 3 is that one end of video sharing.

13)〜14)ユーザAがボタンを放し、VOIPシグナリングサーバにビデオのシェア終了要求を送信し、カメラのビデオフレームの収集を停止し、それと同時に、VOIPデータサーバにはユーザAからのビデオフレームをそれ以上受信することがない。   13) -14) User A releases the button, sends a video share end request to the VOIP signaling server, stops collecting video frames of the camera, and at the same time, the VOIP data server receives the video frame from user A. No more receiving.

15)ユーザAがビデオのシェアを終了したことをVOIPシグナリングサーバよりユーザBに通知する。   15) Notify user B from the VOIP signaling server that user A has finished sharing the video.

16)ユーザBには、ユーザAからのビデオフレームをそれ以上受信することがなく、15)の通知を受信した上で、一方向のビデオのシェアに切り替える。   16) User B does not receive any more video frames from user A, and after receiving the notification of 15), switches to one-way video sharing.

ケース4は、双方がビデオのシェアを終了することである。   Case 4 is that both sides end video sharing.

17)〜18)ケース3の上で、ユーザBもボタンを放し、VOIPシグナリングサーバにビデオのシェア終了要求を送信し、カメラのビデオフレームの収集を停止し、通常の音声通話のインタラクションに切り替え、それと同時に、VOIPデータサーバには、ユーザBからのビデオフレームをそれ以上受信することがない。   17) -18) On case 3, user B also releases the button, sends a video share end request to the VOIP signaling server, stops collecting video frames from the camera, and switches to normal voice call interaction. At the same time, the VOIP data server does not receive any more video frames from user B.

19)ユーザBがビデオのシェアを終了したことをVOIPシグナリングサーバよりユーザAに通知する。   19) The user VO notifies the user A that the video sharing is completed from the VOIP signaling server.

20)ユーザAにはユーザBからのビデオフレームをそれ以上受信することがなく、19)の通知を受信した上で、通常の音声通話のインタラクションに切り替える。   20) User A will not receive any more video frames from user B, and will switch to normal voice call interaction after receiving the notification of 19).

二つの電子装置の間で音声データのインタラクションを行う前提で、本実施例より提供されている音声データ及びビデオフレームのインタラクションは、図6〜7に示す通りである。   On the premise of interaction of audio data between two electronic devices, the interaction of audio data and video frame provided by this embodiment is as shown in FIGS.

図6のインターフェース61は、ユーザAが第1通信状態にある第1電子装置を介して、ユーザBの第2電子装置と音声データのインタラクションを行う場面であり、「撮影」ボタン611を長押しすることを「ビデオのシェアを要求する」のバーチャルボタンとする。   The interface 61 in FIG. 6 is a scene in which the user A interacts with the second electronic device of the user B via the first electronic device in the first communication state, and the user presses the “shoot” button 611 for a long time. This is a virtual button of “Request video sharing”.

そしてから、片方のビデオフレーム送信を開始し、ユーザAの第1電子装置の操作インターフェースがインターフェース62に入り、インターフェース62に現在収集されているビデオフレームを表示し、現在通話時間の長さと「リアルタイムシェア中」という文字も表示され、ここで、指のスクリーン上の移動に伴って、バーチャルボタン611も移動される。   Then, transmission of one video frame is started, and the operation interface of the first electronic device of the user A enters the interface 62, and the currently collected video frame is displayed on the interface 62. A character “shared” is also displayed, and the virtual button 611 is also moved in accordance with the movement of the finger on the screen.

受信側のユーザBがユーザAからのフレームビデオを受信した時に、一つの簡単な着信音が鳴ることが可能であり、ユーザBの表示インターフェース63に、送信側より送信されたビデオフレーム画面を全画面表示し、同時に現在通話時間の長さと「相手側が、リアルタイムシェア中」という文字を表示する。受信側のユーザBは、該当インターフェース63において、予め設定されているボタン631をタッチ操作エリアとし、ボタン631を押下することによって、第2電子装置の「ビデオのシェア」機能を起動し、双方向ビデオのシェアに入ることができる。   When the user B on the receiving side receives the frame video from the user A, it is possible to make one simple ring tone, and the video frame screen transmitted from the transmitting side is displayed on the display interface 63 of the user B. The screen is displayed, and at the same time, the length of the current call time and the text “the other party is sharing in real time” are displayed. The user B on the receiving side activates the “video sharing” function of the second electronic device by pressing the button 631 in the corresponding interface 63 using the preset button 631 as a touch operation area, and interactively. You can enter video sharing.

双方のビデオのシェアとしては、双方向ビデオのシェアに入ってから、双方のインターフェースは、図7内のインターフェース64とインターフェース65にそれぞれ示される通りである。インターフェース64とインターフェース65において、円形エリア641及び円形エリア651によって自分自身のカメラで撮影されている内容を表示し、同時に、円形エリアは、指のスクリーン上の移動に伴って移動され、全画面エリアにおいては、相手側のビデオフレーム画面を表示する。この場面において、片方は先にボタンを放すと、放すほうはインターフェース63に戻ることが可能であり、放していないほうはインターフェース62に戻る。双方とも放すと、両方ともインターフェース61に戻る。   As the sharing of both videos, after entering into the sharing of interactive video, both interfaces are as shown by the interface 64 and the interface 65 in FIG. In the interface 64 and the interface 65, the circular area 641 and the circular area 651 display the contents photographed by the own camera, and at the same time, the circular area is moved as the finger moves on the screen, and the full screen area is displayed. Displays the other party's video frame screen. In this scene, if one of the buttons is released first, it is possible to return to the interface 63 if it is released and return to the interface 62 if it is not released. When both are released, both return to the interface 61.

例示2
本実施例はさらに、図8に示すような複数人(3人及びそれ以上)の間の「一瞥」インタラクションを提供し、これもリアルタイムビデオ技術に基づく遊び方であり、だが、二人の間の形式と異なり、同一時刻において一人しかビデオのシェアを開始することができず、複数人が同時にビデオのシェア要求を行う場合、VOIPシグナリングサーバは判定を行って、ビデオのシェア要求が最初にVOIPシグナリングサーバに到達したユーザに、ビデオのシェア要求の成功を返信し、その他の人にビデオのシェア要求の失敗を返信し、その他の人がビデオのシェアを成功裏に行いたい場合、現在のビデオをシェアしているユーザが終了するまで待ってから、シェアを成功裏に開始することが可能である(ここで、複数人のビデオのシェアの争いと理解してもよい)。複数のユーザA1〜Anの間のビデオのシェアのインタラクションのフローを例として、下記の二つのインタラクションのケースが含まれる。
Example 2
This example further provides a “glance” interaction between multiple people (three and more) as shown in FIG. 8, which is also a way of playing based on real-time video technology, but between two people Unlike the format, only one person can start sharing video at the same time, and when multiple people make a video sharing request at the same time, the VOIP signaling server makes a determination and the video sharing request is first sent to the VOIP signaling. If the user has reached the server, the success of the video sharing request is sent back, the video sharing request failure is sent back to the other person, and the other person wants to share the video successfully. You can wait for the sharing user to finish before you can start sharing successfully (where multiple videos share contention It may be understood as). The following two interaction cases are included, taking as an example the video share interaction flow between a plurality of users A1 to An.

ケース1はビデオのシェア開始である。   Case 1 is the start of video sharing.

1)ユーザA1〜Anのうちの幾つかのユーザは、同時にビデオのシェア要求を複数人VOIPシグナリングサーバに送信する。   1) Some of the users A1 to An simultaneously transmit a video sharing request to the multi-person VOIP signaling server.

2)複数人VOIPシグナリングサーバは、受信されたビデオのシェア要求の前後順位に基づいて判定を行い、要求が最初に受信されたユーザA1にビデオのシェアの成功を返信し、その他のユーザにビデオのシェア要求の失敗を返信する。   2) The multi-person VOIP signaling server makes a determination based on the order of front and back of the received video sharing request, returns the success of video sharing to the user A1 who has received the request first, and sends video to other users. Returns the share request failure.

3)複数人VOIPシグナリングサーバはその他のユーザに、ユーザA1が「一瞥」を開始していることを通知する。   3) The multi-person VOIP signaling server notifies other users that the user A1 has started “glance”.

4)ユーザA1はカメラを起動し、ビデオフレームを収集し始める。   4) User A1 activates the camera and starts collecting video frames.

5〜6)ユーザA1が収集されたリアルタイムビデオフレームを複数人VOIPデータサーバに送信してから、VOIPデータサーバはビデオフレームをその他のユーザに透過伝送する。   5-6) After the user A1 transmits the collected real-time video frame to the multi-person VOIP data server, the VOIP data server transparently transmits the video frame to other users.

7)その他のユーザはユーザA1からのリアルタイムビデオフレームを受信してから、3)の通知が受信されているか否かをまずチェックし、既に受信されている場合、ビデオフレームのレンダリングと表示を行う。   7) After receiving the real-time video frame from user A1, the other users first check whether the notification of 3) has been received and, if already received, render and display the video frame. .

ケース2はビデオのシェアの終了である。   Case 2 is the end of video sharing.

8〜9)ケース1の上で、ユーザA1はボタンを放し、複数人VOIPシグナリングサーバにシェア終了要求を送信し、同時にカメラがビデオフレームの収集を停止し、通常の複数人の音声通話状態に切り替えかれ、それと同時に、VOIPデータサーバには、ユーザA1からのビデオフレームをそれ以上受信することがない。   8-9) On case 1, user A1 releases the button, sends a share termination request to the multi-person VOIP signaling server, and at the same time, the camera stops collecting video frames and enters a normal multi-person voice call state. At the same time, the VOIP data server will not receive any more video frames from user A1.

10)VOIPシグナリングサーバは、ユーザA1が「一瞥」を終了したことをその他のユーザに通知する。   10) The VOIP signaling server notifies the other users that the user A1 has finished “glance”.

11)その他のユーザには、ユーザA1からのビデオフレームをそれ以上受信することがなく、10)の通知を受信した上で、通常の複数人の音声通話のインタラクションに切り替える。   11) The other users do not receive any more video frames from user A1, and after receiving the notification of 10), the user switches to the normal multi-person voice call interaction.

図9に示すように、各効果図に関する説明は下記順の通りである。   As shown in FIG. 9, the explanation regarding each effect diagram is as follows.

複数人の通話インターフェース91は複数人のビデオのシェアの入れ口であり、インターフェース91において、第1タッチ操作エリアをトリガーする操作として、「撮影」911ボタンを長押して、即ちビデオのシェア機能を起動し、同時に一つの簡単な着信音が鳴ることも可能である。ビデオのシェア機能を起動することによって、インターフェース92に入り、インターフェース92に入ってから「争い」という過程があり、「争い」に成功した場合、インターフェース92に保持し、そうではない場合、インターフェース91に戻り、又はインターフェース93を表示し、その他の人の「一瞥」データを受信する。   The multi-person call interface 91 is an entrance for sharing the video of a plurality of persons. In the interface 91, as an operation for triggering the first touch operation area, a long press of the “shoot” 911 button, that is, the video sharing function is activated. However, it is possible to make one simple ringtone at the same time. By activating the video sharing function, the interface 92 is entered, and after entering the interface 92, there is a process of “fight”. When the “fight” is successful, the process is held in the interface 92. Return to or display the interface 93 to receive “glance” data of other people.

インターフェース92において、即ちビデオのシェア機能に入ってから、自分自身のカメラで撮影されている内容を全画面で表示し、現在通話時間の長さと「リアルタイムシェア中」という文字を表示し、ここで、ボタンは指のスクリーン上の移動に伴って移動され、ボタンを放すと、インターフェース91に戻る。   In the interface 92, that is, after entering the video sharing function, the content captured by the camera itself is displayed on the full screen, and the length of the current call time and the text “Real time sharing” are displayed. The button is moved as the finger moves on the screen, and when the button is released, the interface 91 is returned to.

インターフェース93においては、複数がビデオフレームを共有する時に、画像を共有していない装置は、招待側よりビデオフレームを送信してきた時に、一つの簡単な着信音が鳴ることも可能であり、そして招待側より送信してきたビデオフレーム画面を全画面で表示し、同時に現在通話時間の長さと「誰々が、リアルタイムシェア中」と言う文字を表示する。   In the interface 93, when a plurality of video frames share a video frame, a device that does not share an image can also make a simple ringtone when it sends a video frame from the invitee, and invites The video frame screen sent from the side is displayed on the full screen, and at the same time the length of the current call time and the text “who is sharing in real time” are displayed.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集された画像ファイルのビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えかれることができる。このようにすれば、音声通信のインタラクションの時に、ユーザが画像ファイルのビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時の画像ファイルのビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the video frames of the currently collected image file, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, at the time of voice communication interaction, the user can freely control the timing of the video frame interaction of the image file, so that the video frame and voice data of the image file at the time of communication can be maintained continuously. The processing resources of the server used to transfer to the server can be reduced, and the smoothness of both calls can be maintained.

実施例4
本発明の実施例は電子装置を提供し、図10に示すように、
前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように構成される第1処理ユニット1001と、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアするように構成される第2処理ユニット1002と、
を含む。
Example 4
An embodiment of the present invention provides an electronic device, as shown in FIG.
The first electronic device is controlled to be in a first communication state. In the first communication state, the first electronic device interacts with audio data with at least one second electronic device, and performs a second operation. In response, a first processing unit 1001 configured to control to switch from the second communication state to the first communication state;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and A second processing unit 1002 configured to share a video frame with at least one second electronic device;
including.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

好ましくは、前記第1電子装置は少なくとも一つの第2電子装置と通信接続を確立することが可能であり、例えば、図2に示すように、第1電子装置21が第2電子装置221と第2電子装置222への通信接続を確立する。   Preferably, the first electronic device can establish a communication connection with at least one second electronic device. For example, as shown in FIG. 2, the first electronic device 21 is connected to the second electronic device 221 and the second electronic device 221. 2 Establish communication connection to electronic device 222.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

前記電子装置はさらに、少なくとも一つの画像情報を収集するための画像収集ユニット1003を含む。   The electronic device further includes an image collection unit 1003 for collecting at least one image information.

それに応じて、前記第2処理ユニット1002は、具体的に第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、収集された前記少なくとも一つの画像情報を用いて、第1ビデオフレームを生成し、前記第1ビデオフレームを前記少なくとも一つの第2電子装置に送信するように用いられる。   Accordingly, the second processing unit 1002 controls to switch from the first communication state to the second communication state specifically in response to the first operation, and in the second communication state, the at least one An audio data interaction with a second electronic device is maintained, a first video frame is generated using the collected at least one image information, and the first video frame is transmitted to the at least one second electronic device. Used to transmit.

ここで、前記少なくとも一つの画像情報を収集することは、カメラを起動して、カメラが周期的に画像情報を収集することによって、少なくとも一つの画像情報を得ることであってもよい。ここで、前記周期はカメラの性能に基づいて設定することが可能であり、例えば、10ms毎に一回の画像情報を収集するように設定してもよい。   Here, collecting the at least one image information may be to obtain at least one image information by starting the camera and periodically collecting the image information by the camera. Here, the period can be set based on the performance of the camera. For example, the period may be set so as to collect image information once every 10 ms.

又は、前記少なくとも一つの画像情報を収集することは、カメラを起動してピクチャを撮影して、1枚の画像だけを収集することであってもよく、前記画像をビデオフレームとする。   Alternatively, collecting the at least one image information may be to activate a camera to capture a picture and collect only one image, and the image is a video frame.

好ましくは、前記電子装置はさらに、タッチ検出ユニット1004を含み、第1タッチ操作エリアに対して操作する時間の長さが第1閾値より大きいと検出された場合、第1操作を検出したと確定し、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定するように用いられる。   Preferably, the electronic device further includes a touch detection unit 1004, and when it is detected that the length of time for operating the first touch operation area is larger than the first threshold, it is determined that the first operation is detected. When it is detected that the touch operation on the first touch operation area is cancelled, it is used to determine that the second operation has been detected.

ここで、前記第1タッチ操作エリアは、実際の状況に応じて設定されたタッチ操作を検出するためのタッチポイント、又は、タッチ操作を検出するための予め設定されたエリアであってもよい。ここで、前記タッチポイントは少なくとも、タッチポイントの横座標と縦座標を含むことが可能であり、前記予め設定されたエリアは少なくとも、該エリアの左下角の横縦座標と右上角の横縦座標を含む。   Here, the first touch operation area may be a touch point for detecting a touch operation set in accordance with an actual situation or a preset area for detecting a touch operation. Here, the touch point may include at least the abscissa and ordinate of the touch point, and the preset area includes at least the abscissa of the lower left corner and the abscissa of the upper right corner of the area. including.

また、前記第1タッチ操作エリアは、図3に示すように第1電子装置上に表示されているバーチャルボタン31と表現されてもよい。   The first touch operation area may be expressed as a virtual button 31 displayed on the first electronic device as shown in FIG.

前記操作時間の長さは、ユーザが前記第1タッチ操作エリアを押下する時間の長さであってもよく、言い換えれば、ユーザが前記第1タッチ操作エリアを押下した場合、カメラを起動するように制御し、ユーザが第1タッチ操作エリアの押下操作をキャンセルすることを検出するまで、カメラを介して少なくとも一つの画像情報を収集し、前記少なくとも一つの画像情報をビデオフレームとする。   The length of the operation time may be the length of time that the user presses the first touch operation area. In other words, when the user presses the first touch operation area, the camera is activated. Until at least one piece of image information is collected through the camera until the user detects that the pressing operation of the first touch operation area is canceled, and the at least one piece of image information is used as a video frame.

図4に示すように、本実施例でビデオフレームを伝送する簡単な実現フローチャートを示しており、ここで、VOIPシグナリングサーバは、主に通話過程における状態に対して制御と同期を行い、シグナリングサーバにおいて、通話過程の制御と同期を行うインタラクション方式はTCPを使用することであり、データサーバは、主にビデオ又は音声データに対して転送(透過伝送)を行い、UDPプロトコルを従ってデータを転送する。   As shown in FIG. 4, a simple implementation flowchart for transmitting a video frame in the present embodiment is shown. Here, the VOIP signaling server mainly controls and synchronizes the state in the call process, and the signaling server , The interaction method for controlling and synchronizing the call process is to use TCP, and the data server mainly transfers (transparent transmission) to video or audio data, and transfers the data according to the UDP protocol. .

以下において、第1電子装置と第2電子装置という二つの装置の間でリアルタイムビデオを行う過程を説明する。   Hereinafter, a process of performing real-time video between two devices, the first electronic device and the second electronic device, will be described.

第1電子装置はカメラ装置を起動し、画像情報を収集し、ビデオコーデックエンジンは、画像情報に対してエンコーディング処理を行い、エンコーディングされたビデオフレームをネットワークのパケット化を行い、UDP方式でデータサーバに送信し、前記データサーバはVOIPデータサーバであってもよい。   The first electronic device activates the camera device, collects image information, and the video codec engine performs encoding processing on the image information, packetizes the encoded video frame into a network, and uses a UDP data server. And the data server may be a VOIP data server.

VOIPデータサーバより第2電子装置に透過伝送する。   Transparent transmission from the VOIP data server to the second electronic device.

第2電子装置は、ビデオフレームを受信して解凍し、ビデオコーデックエンジンは、ビデオフレームに対してデコーディング処理を行い、デコーディングされたビデオフレームに対してレンダリングと表示を行う。   The second electronic device receives and decompresses the video frame, and the video codec engine performs a decoding process on the video frame, and renders and displays the decoded video frame.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集された画像ファイルのビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えかれることができる。このようにすれば、音声通信のインタラクションの時に、ユーザが画像ファイルのビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時の画像ファイルのビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the video frames of the currently collected image file, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, at the time of voice communication interaction, the user can freely control the timing of the video frame interaction of the image file, so that the video frame and voice data of the image file at the time of communication can be maintained continuously. The processing resources of the server used to transfer to the server can be reduced, and the smoothness of both calls can be maintained.

実施例5
本発明の実施例は電子装置を提供し、図11に示すように、
前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように構成される第1処理ユニット1101と、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアするように構成される第2処理ユニット1102と、
を含む。
Example 5
An embodiment of the present invention provides an electronic device, as shown in FIG.
The first electronic device is controlled to be in a first communication state. In the first communication state, the first electronic device interacts with audio data with at least one second electronic device, and performs a second operation. In response, a first processing unit 1101 configured to control to switch from the second communication state to the first communication state;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and A second processing unit 1102 configured to share a video frame with at least one second electronic device;
including.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

本実施例と実施例1との相違点としては、前記電子装置はさらに、前記第2ビデオフレームを解析して少なくとも一つの画像情報を得て、前記少なくとも一つの画像情報をそれぞれ表示するための、解析ユニット1103を含む。   The difference between the present embodiment and the first embodiment is that the electronic device further analyzes the second video frame to obtain at least one image information and displays the at least one image information, respectively. And an analysis unit 1103.

前記第2処理ユニット1102はさらに、少なくとも一つの第2電子装置から送信してきた第2ビデオフレームを受信するために用いられる。   The second processing unit 1102 is further used to receive a second video frame transmitted from at least one second electronic device.

ここで、前記第2ビデオフレームを解析することは、第1電子装置が画像解析機能によって、ビデオフレームを解析して一つ又は複数の画像情報を得る。   Here, in analyzing the second video frame, the first electronic device obtains one or more pieces of image information by analyzing the video frame using an image analysis function.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集されたビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えられることができる。このようにすれば、音声通信のインタラクションの時に、ユーザがビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時のビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the currently collected video frame, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, the user can freely control the timing of video frame interaction at the time of voice communication interaction, thereby being used to continuously transfer video frame and voice data during communication. Server processing resources can be reduced, and the smoothness of both calls can be maintained.

実施例6
本発明の実施例は電子装置を提供し、図12に示すように、
前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように構成される第1処理ユニット1201と
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、少なくとも一つの第2電子装置とビデオフレームをシェアするように構成される第2処理ユニット1202と、
を含む。
Example 6
An embodiment of the present invention provides an electronic device, as shown in FIG.
The first electronic device is controlled to be in a first communication state. In the first communication state, the first electronic device interacts with audio data with at least one second electronic device, and performs a second operation. In response to the first processing unit 1201 configured to control to switch from the second communication state to the first communication state, and in response to the first operation, switch from the first communication state to the second communication state. A second control unit configured to hold an interaction of audio data with the at least one second electronic device and share a video frame with the at least one second electronic device in the second communication state. A processing unit 1202;
including.

ここで、前記第1電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   Here, the first electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

前記第2電子装置はスマートフォン、タブレットPC、ノートパソコンなどの装置であってもよい。   The second electronic device may be a device such as a smartphone, a tablet PC, or a laptop computer.

なお、本実施例において、第1電子装置と第2電子装置との通信接続の確立方式は、移動セルラネットワークを介して接続を確立してもよく、IPネットワークを介して接続を確立してもよい。   In this embodiment, the communication connection establishment method between the first electronic device and the second electronic device may be established via a mobile cellular network or established via an IP network. Good.

本実施例において、前記第1電子装置が少なくとも一つの第2電子装置と音声データのインタラクションを行う前に、前記第1電子装置はさらに音声収集ユニットを起動して音声の収集を行うことができ、収集された音声を用いてコーディングして音声データを得る。ここで、前記音声収集ユニットはマイクであってもよい。   In this embodiment, before the first electronic device interacts with audio data with at least one second electronic device, the first electronic device can further activate an audio collecting unit to collect audio. The voice data is obtained by coding using the collected voice. Here, the voice collecting unit may be a microphone.

本実施例は一つの場面を提供し、該場面において、第1電子装置は、ビデオフレームを収集して送信するだけではなく、ビデオフレームを受信して表示することもできる。具体的に、前記電子装置はさらに、少なくとも一つの画像情報を収集するための画像収集ユニット1203を含み、それに応じて、前記第2処理ユニット1202は、具体的に第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持するように用いられる。収集された前記少なくとも一つの画像情報を用いて第1ビデオフレームを生成し、前記第1ビデオフレームを前記少なくとも一つの第2電子装置に送信する。   This embodiment provides a scene, in which the first electronic device can not only collect and transmit video frames, but can also receive and display video frames. Specifically, the electronic device further includes an image collection unit 1203 for collecting at least one image information, and accordingly, the second processing unit 1202 specifically responds to the first operation, Control is performed so as to switch from the first communication state to the second communication state, and in the second communication state, it is used to hold an interaction of audio data with the at least one second electronic device. A first video frame is generated using the collected at least one image information, and the first video frame is transmitted to the at least one second electronic device.

また、前記電子装置はさらに、前記第2ビデオフレームを解析して少なくとも一つの画像情報を得て、前記少なくとも一つの画像情報をそれぞれ表示するための解析ユニット1205を含む。   The electronic apparatus further includes an analysis unit 1205 for analyzing the second video frame to obtain at least one image information and displaying the at least one image information.

前記第2処理ユニット1202はさらに、少なくとも一つの第2電子装置から送信してきた第2ビデオフレームを受信するように用いられる。   The second processing unit 1202 is further used to receive a second video frame transmitted from at least one second electronic device.

好ましくは、本実施例において前記ビデオフレームを送信することは、前記第2処理ユニット1202はビデオフレームのシェア要求をシグナリングサーバに送信することと、前記シグナリングサーバによって前記ビデオフレームのシェア要求を少なくとも一つの第2電子装置に送信することと、カメラを起動し、少なくとも一つの画像情報を収集し、前記画像情報をエンコーディングを行ってビデオフレームを得ることと、ビデオフレームをデータサーバに送信することと、
前記データサーバより前記ビデオフレームを前記少なくとも一つの第2電子装置に転送することと、
を含み、ここで、前記シグナリングサーバは、VOIPシグナリングサーバであってもよく、移動セルラネットワークのシグナリングサーバであってもよく、
前記データサーバは、VOIPデータサーバであってもよく、又は移動セルラネットワーク内のデータサーバであってもよい。
Preferably, in the present embodiment, transmitting the video frame means that the second processing unit 1202 transmits a video frame share request to the signaling server, and at least one video frame share request by the signaling server. Transmitting to a second electronic device, activating a camera, collecting at least one image information, encoding the image information to obtain a video frame, and transmitting the video frame to a data server; ,
Transferring the video frame from the data server to the at least one second electronic device;
Wherein the signaling server may be a VOIP signaling server or a mobile cellular network signaling server,
The data server may be a VOIP data server or a data server in a mobile cellular network.

ここで、前記少なくとも一つの画像情報を収集することは、カメラを起動して、カメラが周期的に画像情報を収集することによって、少なくとも一つの画像情報を得ることであってもよい。ここで、前記周期はカメラの性能に基づいて設定することが可能であり、例えば、10ms毎に一回の画像情報を収集するように設定してもよい。   Here, collecting the at least one image information may be to obtain at least one image information by starting the camera and periodically collecting the image information by the camera. Here, the period can be set based on the performance of the camera. For example, the period may be set so as to collect image information once every 10 ms.

又は、前記少なくとも一つの画像情報を収集することは、カメラを起動してピクチャを撮影して、1枚の画像だけを収集することであってもよく、前記画像をビデオフレームとする。   Alternatively, collecting the at least one image information may be to activate a camera to capture a picture and collect only one image, and the image is a video frame.

前記電子装置はさらに、タッチ検出ユニット1204を含み、第1タッチ操作エリアに対して操作する時間の長さが第1閾値より大きいと検出された場合、第1操作を検出したと確定し、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定するように用いられる。   The electronic device further includes a touch detection unit 1204, and when it is detected that the length of time for operating the first touch operation area is greater than a first threshold, it is determined that the first operation has been detected, When it is detected that the touch operation on the first touch operation area is canceled, it is used to confirm that the second operation is detected.

ここで、前記第1タッチ操作エリアは、実際の状況に応じて設定されたタッチ操作を検出するためのタッチポイント、又は、タッチ操作を検出するための予め設定されたエリアであってもよい。ここで、前記タッチポイントは少なくとも、タッチポイントの横座標と縦座標を含むことが可能であり、前記予め設定されたエリアは少なくとも、該エリアの左下角の横縦座標と右上角の横縦座標を含む。   Here, the first touch operation area may be a touch point for detecting a touch operation set in accordance with an actual situation or a preset area for detecting a touch operation. Here, the touch point may include at least the abscissa and ordinate of the touch point, and the preset area includes at least the abscissa of the lower left corner and the abscissa of the upper right corner of the area. including.

また、前記第1タッチ操作エリアは、図3に示すように第1電子装置上に表示されているバーチャルボタン31と表現されてもよい。   The first touch operation area may be expressed as a virtual button 31 displayed on the first electronic device as shown in FIG.

前記操作時間の長さは、ユーザが前記第1タッチ操作エリアを押下する時間の長さであってもよく、言い換えれば、ユーザが前記第1タッチ操作エリアを押下した場合、カメラを起動するように制御し、ユーザが第1タッチ操作エリアの押下操作をキャンセルすることを検出するまで、カメラを介して少なくとも一つの画像情報を収集し、前記少なくとも一つの画像情報をビデオフレームとする。   The length of the operation time may be the length of time that the user presses the first touch operation area. In other words, when the user presses the first touch operation area, the camera is activated. Until at least one piece of image information is collected through the camera until the user detects that the pressing operation of the first touch operation area is canceled, and the at least one piece of image information is used as a video frame.

さらに、前記第2処理ユニット1202は、具体的にビデオフレームを前記少なくとも一つの第2電子装置のうちの全ての第2電子装置に送信するように用いられ、
又は、
前記第2処理ユニット1202は、具体的に前記少なくとも一つの第2電子装置のうちからターゲット第2電子装置を選出し、前記ビデオフレームを前記ターゲット第2電子装置に送信するように用いられる。
Further, the second processing unit 1202 is specifically used to transmit a video frame to all the second electronic devices of the at least one second electronic device,
Or
The second processing unit 1202 is specifically used to select a target second electronic device from the at least one second electronic device and transmit the video frame to the target second electronic device.

言い換えれば、第1電子装置は、複数の電子装置と音声データのインタラクションを行う第1通信状態の後に、第2通信状態に切り替えて、収集された画像を全ての第2電子装置に送信するように選択してもよく、複数の電子装置から一つのターゲット装置を選出して、画像を選出されたターゲット装置に送信してもよい。   In other words, the first electronic device switches to the second communication state after the first communication state in which the voice data interacts with a plurality of electronic devices, and transmits the collected images to all the second electronic devices. Alternatively, one target device may be selected from a plurality of electronic devices, and an image may be transmitted to the selected target device.

前記電子装置はさらに、音声データを収集し、音声データにタイムスタンプを追加するための音声収集ユニット1206を含み、
前記画像収集ユニット1203は、具体的に、ビデオフレームを収集した時に、収集されたビデオフレームに対応するタイムスタンプを追加するように用いられる。
The electronic device further includes an audio collection unit 1206 for collecting audio data and adding a time stamp to the audio data,
Specifically, the image collection unit 1203 is used to add a time stamp corresponding to the collected video frame when the video frame is collected.

前記第1処理ユニット1201は、具体的に音声データ内の音声及びタイムスタンプを解析し、解析されたタイムスタンプによって音声データを出力するように制御するために用いられ、前記解析ユニット1205は、具体的に、ビデオフレーム及びそれに対応するタイムスタンプを解析し、解析されたタイムスタンプによってビデオフレームを出力するように制御するために用いられる。   The first processing unit 1201 is used to specifically analyze the voice and time stamp in the voice data and to control to output the voice data based on the analyzed time stamp. The analysis unit 1205 In particular, it is used to analyze a video frame and a time stamp corresponding to the video frame and to output a video frame according to the analyzed time stamp.

そのため、上記の技術案によって、ユーザが第1通信状態にある時に、音声データだけをインタラクションし、第1操作に応答して、電子装置を第2通信状態に切り替えるように制御し、音声データの伝送のみならず、その上また現在収集された画像ファイルのビデオフレームもシェアし、第2操作に応答して、電子装置は再び第1通信状態に切り替えかれることができる。このようにすれば、音声通信のインタラクションの時に、ユーザが画像ファイルのビデオフレームのインタラクションのタイミングを自在に制御することができ、それによって、通信時の画像ファイルのビデオフレーム及び音声データを持続的に転送するのに使用されるサーバの処理リソースを低減し、通話双方のなめらかさを保つことができる。   Therefore, according to the above technical solution, when the user is in the first communication state, only the voice data is interacted, and the electronic device is controlled to switch to the second communication state in response to the first operation. In addition to transmission, it also shares the video frames of the currently collected image file, and in response to the second operation, the electronic device can be switched back to the first communication state. In this way, at the time of voice communication interaction, the user can freely control the timing of the video frame interaction of the image file, so that the video frame and voice data of the image file at the time of communication can be maintained continuously. The processing resources of the server used to transfer to the server can be reduced, and the smoothness of both calls can be maintained.

本願に提供されている幾つかの実施例において、開示されているデバイスと方法がその他の方式で実現されることが可能であることを理解すべきである。上記で説明したデバイスの実施例は例示的なものに過ぎず、例えば、前記ユニットの分け方が、単なる論理的な機能分けであり、実際、実現する時に他の分け方であってもよく、例えば、複数のユニット又はコンポーネントを別のシステムに結合し、又は集成してもよく、又は幾つかの技術的特徴を省略し、又は実施しなくてもよい。また、明示され、又は説明されている各構成部分の間のカップリング、又は直接のカップリング、又は通信接続は、幾つかのインターフェース、デバイス、又はユニットの間接のカップリング又は通信によって接続してもよく、電気的、機械的、又はその他の形式であってもよい。   It should be understood that in some embodiments provided herein, the disclosed devices and methods can be implemented in other ways. The device embodiments described above are merely exemplary, for example, the unit division is merely logical function division, and may actually be another division when realized, For example, multiple units or components may be combined or assembled into another system, or some technical features may be omitted or not implemented. Also, the coupling or direct coupling, or communication connection between each component that is explicitly or described is connected by indirect coupling or communication of several interfaces, devices, or units. It may be electrical, mechanical, or other types.

上記で分離部品として説明したユニットは、物理的に分離されるものであってもよく、物理的に分離されないものであってもよい。ユニットとしての部品は物理ユニットであってもよく、物理ユニットではないものであってもよい。一箇所に置かれてもよく、複数のネットワークユニットに配布してもよい。実際のニーズに応じて、その中の一部又は全部のユニットを選択して本実施例の技術案の目的を実現してもよい。   The unit described above as the separation component may be physically separated or may not be physically separated. The component as a unit may be a physical unit or may not be a physical unit. It may be placed in one place and distributed to multiple network units. Depending on actual needs, some or all of the units may be selected to realize the object of the technical solution of this embodiment.

また、本発明の各実施例の各機能ユニットは全て一つの処理ユニットに集成してもよく、各ユニットはそれぞれ単独なユニットとしてもよく、二つ又は二つ以上のユニットを一つのユニットに集成してもよく、上記の集成されたユニットはハードウェアの方式で実現してもよく、ハードウェアにソフトウェア機能ユニットを追加する方式で実現してもよい。   In addition, each functional unit of each embodiment of the present invention may be assembled into one processing unit, each unit may be a single unit, or two or more units may be assembled into one unit. Alternatively, the assembled unit may be realized by a hardware method, or may be realized by a method of adding a software function unit to hardware.

当業者は、上記の方法の実施例の全部又は一部のステップを実現するのが、プログラムによって関連するハードウェアに指示して遂行してもよく、上記のプログラムがコンピュータの読み取り可能な記憶媒体に記憶されてもよく、該プログラムを実行する時に、上記方法の実施例を含むステップを実行し、そして、上記の記憶媒体は、移動記憶媒体、読み取り専用メモリ(ROM:Read−Only Memory)、磁気ディスク又はコンパクトディスクなどの各種のプログラムコードが記憶できる媒体を含むことを理解すべきである。   Those skilled in the art may implement all or part of the steps of the above-described method embodiments by instructing related hardware by a program, and the program is a computer-readable storage medium. When the program is executed, the steps including the embodiments of the method are executed, and the storage medium includes a mobile storage medium, a read-only memory (ROM), It should be understood to include media capable of storing various program codes, such as magnetic disks or compact disks.

本実施例は、上記装置の実施例に基づいて具体的なハードウェアを提供し、電子装置は、少なくとも、プロセッサ、メモリ、マイク及びカメラを含む。   This embodiment provides specific hardware based on the above device embodiment, and the electronic device includes at least a processor, a memory, a microphone, and a camera.

ここで、前記プロセッサは、前記電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、少なくとも一つの第2電子装置とビデオフレームをシェアし、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように用いられる。   Here, the processor controls the electronic device to be in a first communication state, and in the first communication state, the first electronic device performs audio data interaction with at least one second electronic device. , In response to the first operation, control to switch from the first communication state to the second communication state, and in the second communication state, holds the interaction of audio data with the at least one second electronic device, The video frame is shared with at least one second electronic device, and is used to control to switch from the second communication state to the first communication state in response to a second operation.

上記に記載されているのは、単なる本発明の具体的な実施形態に過ぎず、本発明はそれに限定されず、当業者が本発明に開示されている範囲内において、容易に想到し得る変形又は置換は、本発明の範囲内に含まれるべきである。そのため、本発明の範囲は、記載されている特許請求の範囲に準じるべきである。   What has been described above are merely specific embodiments of the present invention, and the present invention is not limited thereto, and modifications that can be easily conceived by those skilled in the art within the scope disclosed in the present invention. Or substitutions should be included within the scope of the invention. Therefore, the scope of the present invention should be subject to the appended claims.

Claims (15)

通信処理方法であって、第1電子装置に適用され、
前記第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行うことと、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることと、
第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御することと、
を含む、前記通信処理方法。
A communication processing method applied to a first electronic device,
Controlling the first electronic device to be in a first communication state, and in the first communication state, the first electronic device interacts with audio data with at least one second electronic device;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and Sharing a video frame with at least one second electronic device;
In response to a second operation, controlling to switch from the second communication state to the first communication state;
Including the communication processing method.
前記第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持することと、
少なくとも一つのビデオフレームを収集し、前記少なくとも一つのビデオフレームを前記少なくとも一つの第2電子装置に送信することと、
を含む、請求項1に記載の通信処理方法。
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the interaction of audio data with the at least one second electronic device is held, And sharing a video frame with at least one second electronic device,
Controlling to switch from the first communication state to the second communication state in response to the first operation, and maintaining the interaction of the audio data with the at least one second electronic device in the second communication state; ,
Collecting at least one video frame and transmitting the at least one video frame to the at least one second electronic device;
The communication processing method according to claim 1, comprising:
前記第1操作に応答する前に、前記通信処理方法はさらに、第1タッチ操作エリアに対して操作する時間の長さが第1閾値より大きいと検出された場合、第1操作を検出したと確定することを含み、
前記第2操作に応答する前に、前記通信処理方法はさらに、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定することを含む、
請求項2に記載の通信処理方法。
Prior to responding to the first operation, the communication processing method further detects the first operation when it is detected that the length of time for operating the first touch operation area is greater than a first threshold. Including confirming,
Prior to responding to the second operation, the communication processing method further includes determining that the second operation has been detected when it is detected that the touch operation on the first touch operation area has been canceled.
The communication processing method according to claim 2.
前記少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
少なくとも一つの第2電子装置より送信された少なくとも一つのビデオフレームを受信することと、
少なくとも一つの第2電子装置より送信された前記少なくとも一つのビデオフレームを解析することと、
を含む、請求項1又は2に記載の通信処理方法。
Sharing a video frame with the at least one second electronic device;
Receiving at least one video frame transmitted from at least one second electronic device;
Analyzing the at least one video frame transmitted from at least one second electronic device;
The communication processing method according to claim 1 or 2, comprising:
前記少なくとも一つの第2電子装置とビデオフレームをシェアすることは、
少なくとも一つのビデオフレームを前記少なくとも一つの第2電子装置のうちの全ての第2電子装置に送信すること、
又は、
前記少なくとも一つの第2電子装置のうちからターゲット第2電子装置を選出し、前記ビデオフレームを前記ターゲット第2電子装置に送信すること、
を含む、請求項1に記載の通信処理方法。
Sharing a video frame with the at least one second electronic device;
Transmitting at least one video frame to all second electronic devices of the at least one second electronic device;
Or
Selecting a target second electronic device from among the at least one second electronic device and transmitting the video frame to the target second electronic device;
The communication processing method according to claim 1, comprising:
音声データを収集した時に、音声データにタイムスタンプを追加することと、
ビデオフレームを収集した時に、収集されたビデオフレームに対応するタイムスタンプを追加することと、
をさらに含む、請求項4に記載の通信処理方法。
Adding a time stamp to the audio data when the audio data is collected,
Adding a time stamp corresponding to the collected video frame when collecting the video frame;
The communication processing method according to claim 4, further comprising:
前記少なくとも一つの第2電子装置より送信された前記少なくとも一つのビデオフレームを解析することは、
音声データ内の音声とタイムスタンプを解析し、ビデオフレームとそれに対応するタイムスタンプを解析することと、
解析されたタイムスタンプに基づいて、音声データとビデオフレームを出力するように制御することと、
を含む、請求項6に記載の通信処理方法。
Analyzing the at least one video frame transmitted from the at least one second electronic device;
Analyzing audio and time stamps in audio data, analyzing video frames and corresponding time stamps,
Controlling to output audio data and video frames based on the parsed timestamps;
The communication processing method according to claim 6, comprising:
電子装置であって、
第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第2操作に応答して、第2通信状態から第1通信状態に切り替えるように制御するように構成される第1処理ユニットと、
第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアするように構成される第2処理ユニットと、
を含む、電子装置。
An electronic device,
The first electronic device is controlled to be in the first communication state, and in the first communication state, the voice data interacts with at least one second electronic device, and in response to the second operation, the second communication state A first processing unit configured to control to switch from to a first communication state;
In response to the first operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained; and A second processing unit configured to share a video frame with at least one second electronic device;
Including electronic devices.
少なくとも一つの画像情報を収集するように構成される画像収集ユニットをさらに含み、
前記第2処理ユニットは、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、前記ビデオフレームを前記少なくとも一つの第2電子装置に送信するように構成される、
請求項8に記載の電子装置。
Further comprising an image collection unit configured to collect at least one image information;
The second processing unit controls to switch from the first communication state to the second communication state in response to the first operation, and in the second communication state, audio data with the at least one second electronic device Configured to transmit the video frame to the at least one second electronic device.
The electronic device according to claim 8.
第1タッチ操作エリアに対して操作する時間の長さが第1閾値より長いと検出された場合、第1操作を検出したと確定し、前記第1タッチ操作エリアに対するタッチ操作をキャンセルしたと検出された場合、第2操作を検出したと確定するように構成されるタッチ検出ユニット、
をさらに含む、請求項9に記載の電子装置。
When it is detected that the length of time for operating the first touch operation area is longer than the first threshold, it is determined that the first operation is detected, and it is detected that the touch operation for the first touch operation area is canceled. A touch detection unit configured to confirm that the second operation has been detected,
The electronic device according to claim 9, further comprising:
少なくとも一つの第2電子装置から送信してきた少なくとも一つのビデオフレームを解析するように構成される解析ユニットをさらに含み、
前記第2処理ユニットは、少なくとも一つの第2電子装置から送信してきた第2ビデオフレームを受信するように構成される、
請求項9又は10に記載の電子装置。
An analysis unit configured to analyze at least one video frame transmitted from the at least one second electronic device;
The second processing unit is configured to receive a second video frame transmitted from at least one second electronic device;
The electronic device according to claim 9 or 10.
前記第2処理ユニットは、少なくとも一つのビデオフレームを前記少なくとも一つの第2電子装置のうちの全ての第2電子装置に送信するように構成され、
又は、
前記第2処理ユニットは、前記少なくとも一つの第2電子装置のうちからターゲット第2電子装置を選出し、前記少なくとも一つのビデオフレームを前記ターゲット第2電子装置に送信するように構成される、
請求項9に記載の電子装置。
The second processing unit is configured to transmit at least one video frame to all second electronic devices of the at least one second electronic device;
Or
The second processing unit is configured to select a target second electronic device from the at least one second electronic device and to transmit the at least one video frame to the target second electronic device;
The electronic device according to claim 9.
音声データを収集し、音声データにタイムスタンプを追加するように構成される音声収集ユニットをさらに含み、
前記画像収集ユニットは、ビデオフレームを収集した時に、収集されたビデオフレームに対応するタイムスタンプを追加するように構成される、
請求項11に記載の電子装置。
Further comprising an audio collection unit configured to collect audio data and add a timestamp to the audio data;
The image collection unit is configured to add a time stamp corresponding to the collected video frame when collecting the video frame.
The electronic device according to claim 11.
前記第1処理ユニットは、音声データ内の音声及びタイムスタンプを解析し、解析されたタイムスタンプによって音声データを出力するように制御するように構成され、
前記解析ユニットは、ビデオフレーム及びそれに対応するタイムスタンプを解析し、解析されたタイムスタンプによってビデオフレームを出力するように制御するように構成される、
請求項13に記載の電子装置。
The first processing unit is configured to analyze a voice and a time stamp in the voice data and to control to output the voice data according to the analyzed time stamp,
The analysis unit is configured to analyze the video frame and a corresponding time stamp and control to output the video frame according to the analyzed time stamp.
The electronic device according to claim 13.
電子装置であって、
プロセッサ、メモリ、マイク及びカメラを含み、
前記メモリは、実行する時に、少なくとも一つのプロセッサに操作を実行させるための命令セットを記憶するように構成され、
前記プロセッサは、第1電子装置を第1通信状態にするように制御し、前記第1通信状態において、前記第1電子装置は、少なくとも一つの第2電子装置と音声データのインタラクションを行い、第1操作に応答して、第1通信状態から第2通信状態に切り替えるように制御し、前記第2通信状態において、前記少なくとも一つの第2電子装置との音声データのインタラクションを保持し、かつ少なくとも一つの第2電子装置とビデオフレームをシェアし、第2操作に応答して、前記第2通信状態から第1通信状態に切り替えるように制御するように構成される、
前記電子装置。
An electronic device,
Including processor, memory, microphone and camera,
The memory is configured to store a set of instructions that, when executed, cause at least one processor to perform an operation;
The processor controls the first electronic device to be in a first communication state, and in the first communication state, the first electronic device interacts with at least one second electronic device for voice data, and In response to one operation, control is performed to switch from the first communication state to the second communication state, and in the second communication state, the voice data interaction with the at least one second electronic device is maintained, and at least Configured to share a video frame with one second electronic device and control to switch from the second communication state to the first communication state in response to a second operation;
The electronic device.
JP2017556135A 2015-08-05 2016-07-21 Communication processing method and electronic apparatus Pending JP2018515979A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510474631.1A CN105187758B (en) 2015-08-05 2015-08-05 A kind of communication processing method and electronic equipment
CN201510474631.1 2015-08-05
PCT/CN2016/090811 WO2017020711A1 (en) 2015-08-05 2016-07-21 Communication processing method and electronic device

Publications (1)

Publication Number Publication Date
JP2018515979A true JP2018515979A (en) 2018-06-14

Family

ID=54909581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556135A Pending JP2018515979A (en) 2015-08-05 2016-07-21 Communication processing method and electronic apparatus

Country Status (4)

Country Link
JP (1) JP2018515979A (en)
KR (1) KR102110644B1 (en)
CN (1) CN105187758B (en)
WO (1) WO2017020711A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105187758B (en) * 2015-08-05 2019-01-29 腾讯科技(深圳)有限公司 A kind of communication processing method and electronic equipment
CN108712577B (en) * 2018-08-28 2021-03-12 维沃移动通信有限公司 Call mode switching method and terminal equipment
CN111212452B (en) * 2020-01-13 2022-05-17 海能达通信股份有限公司 Handover method for voice communication, communication system, terminal and storage medium
CN113301289B (en) * 2020-02-21 2023-04-11 深圳市万普拉斯科技有限公司 Communication processing method, communication processing device, electronic equipment and storage medium
CN111726561B (en) * 2020-06-17 2022-07-08 千脉文化传媒(上海)有限公司 Conference method, system, equipment and storage medium for different terminals and same account

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0964777A (en) * 1995-08-24 1997-03-07 Hitachi Ltd Radio video signal transmitter-receiver
JP2007318283A (en) * 2006-05-24 2007-12-06 Konica Minolta Holdings Inc Packet communication system, data receiver
CN102026162A (en) * 2009-09-15 2011-04-20 中兴通讯股份有限公司 Method and system for initiating video auxiliary voice call
WO2014168030A1 (en) * 2013-04-11 2014-10-16 Necカシオモバイルコミュニケーションズ株式会社 Communication terminal and communication method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080103813A (en) * 2007-05-25 2008-11-28 삼성전자주식회사 Mobile communication terminal and method for video call thereof
KR101351037B1 (en) * 2007-08-01 2014-01-10 엘지전자 주식회사 A mobile telecommunication device and a method of visual communication using the same
CN101489309B (en) * 2008-01-18 2011-03-30 希姆通信息技术(上海)有限公司 Method and double mode double standby terminal for implementing video sharing service
CN101426246A (en) * 2008-12-04 2009-05-06 中兴通讯股份有限公司 Method and device for switching between visible telephone and speech telephone
KR101960306B1 (en) * 2012-07-13 2019-03-20 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20140070134A (en) * 2012-11-30 2014-06-10 엘지전자 주식회사 Mobile terminal and operation method thereof
CN104539871B (en) * 2014-12-22 2019-03-15 小米科技有限责任公司 Multimedia session method and device
CN105187758B (en) * 2015-08-05 2019-01-29 腾讯科技(深圳)有限公司 A kind of communication processing method and electronic equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0964777A (en) * 1995-08-24 1997-03-07 Hitachi Ltd Radio video signal transmitter-receiver
JP2007318283A (en) * 2006-05-24 2007-12-06 Konica Minolta Holdings Inc Packet communication system, data receiver
CN102026162A (en) * 2009-09-15 2011-04-20 中兴通讯股份有限公司 Method and system for initiating video auxiliary voice call
WO2014168030A1 (en) * 2013-04-11 2014-10-16 Necカシオモバイルコミュニケーションズ株式会社 Communication terminal and communication method

Also Published As

Publication number Publication date
CN105187758B (en) 2019-01-29
KR20170140369A (en) 2017-12-20
KR102110644B1 (en) 2020-06-26
WO2017020711A1 (en) 2017-02-09
CN105187758A (en) 2015-12-23

Similar Documents

Publication Publication Date Title
CN111818359B (en) Processing method and device for live interactive video, electronic equipment and server
CN108933965B (en) Screen content sharing method and device and storage medium
JP2018515979A (en) Communication processing method and electronic apparatus
CN105144673B (en) Reduced latency server-intervention audio-video communication
US9485465B2 (en) Picture control method, terminal, and video conferencing apparatus
WO2022135005A1 (en) Call-based screen sharing method, apparatus, device, and storage medium
CN103597468A (en) Systems and methods for improved interactive content sharing in video communication systems
WO2016011742A1 (en) Call method, apparatus and system
CN111988555B (en) Data processing method, device, equipment and machine readable medium
US11444992B2 (en) Method and apparatus for communication processing
CN104509096A (en) Method and apparatus for enabling visual mute of a participant during video conferencing
WO2016206471A1 (en) Multimedia service processing method, system and device
CN109788364B (en) Video call interaction method and device and electronic equipment
WO2022267640A1 (en) Video sharing method, and electronic device and storage medium
JP7116124B2 (en) Video Call Mediating Apparatus, Method and Computer Readable Recording Medium Thereof
WO2011010563A1 (en) Video call system, master-side terminal, slave-side terminal, and program
CN114915852A (en) Video call interaction method and device, computer equipment and storage medium
CN115240821A (en) Image display method, image display device, computer equipment and storage medium
US11949727B2 (en) Organic conversations in a virtual group setting
JP4501171B2 (en) Image processing device
JP2023084986A (en) Display control system, display control method, and program
KR100668214B1 (en) Method For Avatar Shape Assignment In Multimedia Virtual Space
JP2015100061A (en) Remote reception system, remote reception method, and program
CN116648696A (en) Collaborative information display control method, electronic device, and storage medium
CN113938336A (en) Conference control method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191122

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191227

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200114

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200407

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200526

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200707

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200811

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200811