CN112738013B - 群呼方法、计算机装置及计算机可读记录介质 - Google Patents

群呼方法、计算机装置及计算机可读记录介质 Download PDF

Info

Publication number
CN112738013B
CN112738013B CN202011090124.5A CN202011090124A CN112738013B CN 112738013 B CN112738013 B CN 112738013B CN 202011090124 A CN202011090124 A CN 202011090124A CN 112738013 B CN112738013 B CN 112738013B
Authority
CN
China
Prior art keywords
whisper
group call
user
participants
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011090124.5A
Other languages
English (en)
Other versions
CN112738013A (zh
Inventor
金娜怜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Plus Corp
Original Assignee
Line Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Plus Corp filed Critical Line Plus Corp
Publication of CN112738013A publication Critical patent/CN112738013A/zh
Application granted granted Critical
Publication of CN112738013B publication Critical patent/CN112738013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1093In-session procedures by adding participants; by removing participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/27475Methods of retrieving data using interactive graphical means or pictorial representations

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了群呼方法、计算机装置及计算机可读记录介质。一实施例的群呼方法可包括:参与步骤,参与群呼会话;指定步骤,在维持上述群呼会话的状态下,根据对于上述计算机装置所包括的触摸屏画面的触摸手势,将参与上述群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象;构成步骤,在指定上述耳语对象的期间,以使通过上述计算机装置所包括的输入装置输入的影像及音频中的至少一个向上述耳语对象传递的方式构成耳语数据包;以及传输步骤,通过上述群呼会话向服务器传输上述耳语数据包。

Description

群呼方法、计算机装置及计算机可读记录介质
技术领域
以下的说明涉及利用耳语的群呼方法及系统。
背景技术
多人之间的通话是指多名同时进行通话的群呼。例如,在韩国公开专利第10-2005-0034455号中公开了具有模式转换功能的群呼服务器及模式转换方法。作为实时通话服务形式中的一种的群呼可向通话对方传递音频数据和影像等的媒体。但是,在上述群呼中传递的数据向参与群呼的对应实例的所有人传输。例如,在第一用户、第二用户、第三用户、第四用户及第五用户等5名用户参与的群呼的实例中,第一用户的音频/视频等的数据向剩余第二用户、第三用户、第四用户及第五用户传递。换句话说,在现有技术的群呼中,一直广播数据。
发明内容
本发明提供如下的群呼方法及系统,即,在与群呼的全部参与人员进行群呼的过程中,可通过瞬间选择需要的参与人员(或参与人员小组)来与所选择的参与人员(或参与人员小组)进行耳语。
本发明提供群呼方法,其为包括至少一个处理器的计算机装置的群呼方法,其特征在于,包括:参与步骤,通过上述至少一个处理器参与群呼会话;指定步骤,通过上述至少一个处理器,在维持上述群呼会话的状态下,根据对于上述计算机装置所包括的触摸屏画面的手势,将参与上述群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象;构成步骤,通过上述至少一个处理器,在指定上述耳语对象的期间,以使通过上述计算机装置所包括的输入装置输入的影像及音频中的至少一个向上述耳语对象传递的方式构成耳语数据包;以及传输步骤,通过上述至少一个处理器,通过上述群呼会话向服务器传输上述耳语数据包。
根据一实施方式,本发明的特征在于,指定上述耳语对象的步骤包括:显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的对象;识别步骤,识别在上述触摸屏画面中发生并维持设定时间以上的触摸所指示的对象;以及指定步骤,在维持上述触摸的期间,将与所识别的上述对象相对应的参与人员指定为上述耳语对象。
根据再一实施方式,本发明的特征在于,指定上述耳语对象的步骤包括:设定步骤,在维持上述群呼会话的状态下,设定包括上述多个参与人员中的至少一个参与人员的耳语小组;激活步骤,根据对于上述触摸屏画面的已设定的触摸手势来激活上述耳语小组;以及指定步骤,在上述耳语小组被激活的期间,将包含在上述耳语小组中的至少一个参与人员指定为上述耳语对象。
根据另一实施方式,本发明的特征在于,在设定上述耳语小组的步骤中,分别设定包括至少一个参与人员的两个以上的耳语小组,在激活上述耳语小组的步骤中,根据已设定的上述触摸手势来选择性地激活两个以上的上述耳语小组中的一个耳语小组。
根据还有一实施方式,本发明的特征在于,响应于上述耳语小组的设定,通过上述服务器,还对上述耳语小组中所包括的上述至少一个参与人员中的每一个自动设定上述耳语小组。
根据又一实施方式,本发明的特征在于,设定上述耳语小组的步骤包括:显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的多个对象及耳语小组设定区域;识别步骤,识别通过拖放手势向上述设定区域移动的对象;以及包括步骤,将与所识别的上述对象相对应的参与人员包括在上述耳语小组。
根据又一实施方式,本发明的特征在于,设定上述耳语小组的步骤包括:显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的多个对象及耳语小组生成按钮;识别步骤,在激活上述耳语小组生成按钮的状态下,识别在上述触摸屏画面中发生的触摸所指示的对象;以及包括步骤,将与所识别的上述对象相对应的参与人员包括在上述耳语小组。
根据又一实施方式,本发明的特征在于,在上述激活步骤中,根据沿着相对于上述触摸屏画面的第一方向的滑动手势激活上述耳语小组。
根据又一实施方式,本发明的特征在于,上述群呼方法还包括:接收步骤,通过上述至少一个处理器,从上述服务器接收耳语数据包;以及输出步骤,通过上述至少一个处理器,通过调制包含在所接收的上述耳语数据包的音频来通过上述计算机装置所包括的输出装置进行输出。
根据又一实施方式,本发明的特征在于,上述群呼方法还包括:接收步骤,通过上述至少一个处理器,从上述服务器接收耳语数据包;以及显示步骤,通过上述至少一个处理器,通过上述触摸屏画面显示与上述多个参与人员中的每一个相对应的多个对象,并强调显示与传输所接收的上述耳语数据包的参与人员相对应的对象。
根据又一实施方式,本发明的特征在于,上述群呼方法还包括:接收步骤,通过上述至少一个处理器,从上述服务器接收耳语数据包;以及显示步骤,通过上述至少一个处理器,通过上述触摸屏画面显示与上述多个参与人员中的每一个相对应的多个对象,并强调显示由传输所接收的上述耳语数据包的参与人员设定的耳语小组的参与人员相对应的多个对象。
本发明提供计算机程序,上述计算机程序为了与计算机装置相结合来在计算机装置中执行群呼方法而存储于计算机可读记录介质。
本发明提供计算机可读记录介质,上述计算机可读记录介质记录有用于在计算机装置中执行上述方法的程序。
本发明提供计算机装置,其特征在于,包括实现为执行计算机可读指令的至少一个处理器,通过上述至少一个处理器参与群呼会话,在维持上述群呼会话的状态下,根据对于上述计算机装置所包括的触摸屏画面的触摸手势,将参与上述群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象,在指定上述耳语对象的期间,以使通过上述计算机装置所包括的输入装置输入的影像及音频中的至少一个向上述耳语对象传递的方式构成耳语数据包,通过上述群呼会话向服务器传输上述耳语数据包。
在与群呼的全部参与人员进行群呼的过程中,可通过瞬间选择所需要的参与人员(或参与人员小组)来与所选择的参与人员(或参与人员小组)进行耳语。
附图说明
图1为示出本发明一实施例的网络环境的示例的图。
图2为示出本发明一实施例的计算机装置的示例的框图。
图3为示出本发明一实施例的群呼系统的概览的示例的图。
图4至图6为示出本发明一实施例的群呼过程的示例的图。
图7为示出本发明一实施例的基于扩展的传输协议的扩展的容器格式的示例的图。
图8为示出本发明一实施例的基于扩展的传输协议的扩展的容器格式的示例的图。
图9及图10为示出本发明一实施例的选择耳语对象的画面示例的图。
图11为示出本发明一实施例的接收耳语数据包的情况的画面示例的图。
图12及图13为示出本发明一实施例的设定耳语小组的示例的图。
图14及图15为示出本发明一实施例的设定耳语小组的另一示例的图。
图16为示出本发明一实施例的激活耳语小组的示例的图。
图17为示出本发明一实施例的包含在耳语小组中接收耳语的情况的画面示例的图。
图18为示出本发明一实施例的群呼方法的示例的流程图。
具体实施方式
以下,参照附图,详细说明实施例。
本发明实施例的群呼系统可通过至少一个计算机装置实现,本发明实施例的群呼方法可通过群呼系统中的至少一个计算机装置执行。在此情况下,在计算机装置中可安装及驱动本发明一实施例的计算机程序,计算机装置可根据所驱动的计算机程序的控制执行本发明实施例的群呼方法。上述计算机程序为了与计算机装置相结合来在计算机中执行群呼方法而可存储于计算机可读记录介质。
图1为示出本发明一实施例的网络环境的示例的图。图1的网络环境示出包括多个电子设备110、120、130、140、多个服务器150、160及网络170的示例。图1为用于说明本发明的一例,电子设备的数量或服务器的数量并不局限于图1所示。并且,图1的网络环境为可适用于本发明的多个环境中的一个示例,可适用于本实施例的环境并不局限于图1的网络环境。
多个电子设备110、120、130、140可以为通过计算机装置实现的固定型终端或移动型终端。作为多个电子设备110、120、130、140的示例,包括智能手机(smart phone)、手机、导航、计算机、笔记本电脑、数字广播终端、个人数字助理(Personal Digital Assistants,PDA)、便携式多媒体播放器(Portable Multimedia Player,PMP)、平板电脑等。作为一例,图1中,作为电子设备110的示例,示出了智能手机的形状,但在本发明的实施例中,实质上,电子设备110可以为利用无线或有线通信方式,可通过网络170与其他电子设备120、130、140和/或服务器150、160进行通信的多种物理计算机装置中的一个。
通信方式并不受限,可包括利用网络170能够包括的通信网(作为一例,移动通信网络、有线互联网、无线互联网、广播网络)的通信方式和多个设备之间的近距离无线通信。例如,网络170可包括个人区域网(personal area network,PAN)、局域网(local areanetwork,LAN)、校园网(campus area network,CAN)、城域网(metropolitan areanetwork,MAN)、广域网(wide area network,WAN)、宽带网(broadband network,BBN)、互联网等网络中的一个或一个以上的任何网络。并且,网络170可包括具有总线网络、星形网络、环形网络、网状网络、星形总线网络、树形或分层(hierarchical)网络等的网络拓扑结构中的任一个或一个以上,但并不局限于此。
服务器150、160中的每一个可实现为通过网络170与多个电子设备110、120、130、140进行通信来提供指令、代码、文件、内容、服务等的计算机装置或多个计算机装置。例如,服务器150可以为向通过网络170连接的多个电子设备110、120、130、140提供服务(作为一例,群呼服务(或语音会议服务)、消息服务、邮件服务、社交网络服务、地图服务、翻译服务、金融服务、结算服务、搜索服务、内容提供服务等)的系统。
图2为示出本发明一实施例的计算机装置的示例的框图。上述说明的多个电子设备110、120、130、140中的每一个或多个服务器150、160中的每一个可通过图2所示的计算机装置200实现。
如图2所示,上述计算机装置200可包括存储器210、处理器220、通信接口230及输入输出接口240。存储器210为计算机可读记录介质,可包括随机存取存储器(randomaccess memory,RAM)、只读存储器(read only memory,ROM)和如磁盘驱动器等的永久大容量存储装置(permanent mass storage device)。其中,只读存储器和如磁盘驱动器等的永久大容量存储装置可作为与存储器210区分的额外的永久存储装置包含在计算机装置200中。并且,存储器210可存储操作系统和至少一个程序代码。上述软件结构要素可从与存储器210不同的计算机可读记录介质向存储器210加载。这种额外的计算机可读记录介质可包括软盘驱动器、磁盘、磁带、DVD/CD-ROM驱动器、存储卡等的计算机可读记录介质。在另一实施例中,软件结构要素可通过通信接口230向存储器210加载,而并非通过计算机可读记录介质加载。例如,软件结构要素基于以通过网络170接收的文件安装的计算机程序来向计算机装置200的存储器210加载。
处理器220可执行基本的算术、逻辑及输入输出运算来处理计算机程序的指令。指令可通过存储器210或通信接口230向处理器220提供。例如,处理器220可根据存储于如存储器210等的记录装置的程序代码执行接收的指令。
通信接口230可通过网络170提供计算机装置200与其他装置(作为一例,上述说明的存储装置)相互进行通信的功能。作为一例,根据通信接口230的控制,计算机装置200的处理器220根据存储于如存储器210的记录装置的程序代码生成的请求或指令、数据、文件等可通过网络170向其他装置传递。相反,来自其他装置的信号或指令、数据、文件等可经过网络170,通过计算机装置200的通信接口230向计算机装置200传递。通过通信接口230接收的信号或指令、数据等可向处理器220或存储器210传递,文件等可存储于计算机装置200还可包括的存储介质(上述永久存储装置)。
输入输出接口240可以为用于与输入输出装置250接合的单元。例如,输入装置可包括麦克风、键盘或鼠标等的装置,输出装置可包括显示器、扬声器等装置。作为另一例,输入输出接口240可以为用于与如触摸屏的输入及输出功能合并为一个的装置接合的单元。输入输出装置250中至少一个可以与计算机装置200构成一个装置。例如,如智能手机,可实现为在计算机装置200中包括触摸屏、麦克风、扬声器等的形式。
并且,在另一实施例中,计算机装置200可包括比图2的结构要素更多或更少的结构要素。但是,无需明确示出大部分现有技术结构要素。例如,计算机装置200可包括上述输入输出装置250中的至少一部分,或者还可包括如无线电收发两用机(transceiver)、数据库等的其他结构要素。
图3为示出本发明一实施例的群呼系统的概览的示例的图。本实施例的群呼系统可以由提供群呼服务的服务器310和用于多个参与人员的客户端装置320构成。在此情况下,与以往不同,根据本发明的实施例,服务器310和多个客户端装置320之间可通过能够在数据包中包含目的地信息的扩展的传输协议进行通信。例如,可以考虑一个群呼实例中参与多个客户端装置320中的第一客户端装置321、第二客户端装置322及第三客户端装置323的情况。在此情况下,参与对应群呼实例的多个客户端装置321、322、323中的每一个可指定特定参与人员来传输数据包。例如,第一客户端装置321可指定第三客户端装置323来传递如音频或视频的媒体。
换句话说,本实施例的群呼服务的参与人员可以向对应群呼实例的所有参与人员传递数据,也可以向特定参与人员或特定参与人员的小组传递数据。
图4至图6为示出本发明一实施例的群呼过程的示例的图。
图4示出第一用户410(用户1)、第二用户420(用户2)及第三用户430(用户3)参与群呼的实例的示例。其中,多个用户410、420、430中的每一个可以与通过上述图3说明的多个客户端装置320中的一个相对应。在此情况下,如表440所示,服务器310可以管理包含用于多个用户410、420、430的源标识符(Srcid)和连接信息的表。源标识符(Srcid)针对各个群呼具有唯一值,通常,可用于识别从服务器310接收的数据为从哪个用户的源(作为一例,用户A的音频源或用户B的视频源等)传输的数据。此外,根据本发明的一部分实施例,源标识符可以与连接信息相关联用于识别从多个客户端装置320中的一个向服务器传输的数据应向哪个用户的源传递,即,用于识别数据的目的地信息。虽然未图示,这种源标识符(Srcid)和连接信息可以和与多个用户410、420、430有关的其他信息一同作为一个表管理。若从各个用户的客户端装置接收到与要发送和接收的媒体类型等通话相关信息以及开始或参与群呼的请求,则服务器310可以以从客户端装置接收的通话相关信息为基础来分配一个以上的源标识符,由此管理如表440的表。之后,服务器310可以向开始或参与群呼的客户端装置传输向对应客户端装置分配的源标识符。并且,在存在已参与群呼的其他用户的情况下,服务器310可以向参与群呼的用户的客户端装置传输与已参与群呼的其他用户的至少一部分有关的源标识符。并且,在群呼过程中,服务器310可以以从客户端装置的请求为基础或以服务器310的判断为基础向参与群呼的用户的客户端装置传输与参与群呼的其他用户的至少一部分有关的源标识符。例如,假定在均使用视频和音频的第一用户410及第二用户420的群呼过程中,第三用户430利用仅具有音频装置的第三客户端装置323参与和第一用户410及第二用户420的群呼的情况。若服务器310从第三用户430一同接收第三用户的通话相关信息和参与群呼的请求,则服务器310可以向第三用户430分配源标识符Src5,通过使源标识符Src5与和源标识符Src5相对应的连接信息ip3/port1关联来存储于表。在此情况下,服务器310可以向第三用户430的第三客户端装置323传输向第三用户430分配的源标识符Src5和已参与群呼的第一用户410及第二用户420的源标识符信息。并且,服务器310可以向已参与群呼的第一用户410及第二用户420告知第三用户430的源标识符为Src5。
假定当第一用户410、第二用户420、第三用户430参与群呼时,在第一用户410并不指定至少一部分用户的情况下,如图4所示,向服务器310传输数据包“P1”和数据包“P2”的情况。在此情况下,数据包“P1”和数据包“P2”可分别包含源标识符。例如,在数据包“P1”包含音频数据,数据包“P2”包含视频数据的情况下,数据包“P1”可包含用于音频的第一用户410的源标识符Src1,数据包“P2”可包含用于视频的第一用户410的源标识符Src2。在此情况下,服务器310可通过数据包“P1”所包含的源标识符Src1了解数据包“P1”包含音频数据,利用表440,通过ip2/port1及ip3/port1向具有音频源的第二用户420和第三用户430的用户装置传递数据包“P1”。并且,服务器310可通过数据包“P2”包含的源标识符Src2知道数据包“P2”包含视频数据,利用表440,可通过ip2/port2向具有视频源的第二用户420的用户装置传递数据包“P2”。在此情况下,第三用户430未被分配视频源,因此,数据包“P2”不会向第三用户430传递。
图5示出在群呼过程中,第一用户410仅向第二用户420传递自己的音频和视频的过程的示例。在群呼过程中,在从第一用户410输入仅向第二用户420传递音频和视频的请求的情况下,与并不指定目标的情况不同,可在从第一用户410传输的数据包中包含目的地信息来传递数据包。在群呼过程中,随着从第一用户410输入仅向第二用户420传递音频和视频的请求,以从服务器接收的其他用户的源标识符为基础(例如,参照图5的表510),在包含第一用户410的音频的数据包“P3”中可指定源标识符Src3作为目的地信息,包含第一用户410的视频的数据包“P4”可指定源标识符Src4作为目的地信息。在此情况下,服务器310可以参照图4的表440向与在数据包“P3”中指定的源标识符Src3相对应的第二用户420的ip2/port1传递数据包“P3”,并向与在数据包“P4”中指定的源标识符Src4相对应的第二用户420的ip2/port2传递数据包“P4”。在群呼过程中,直至解除从第一用户410仅向第二用户420传递自己的音频或视频的请求,上述源标识符可被指定在来自第一用户410的数据包。
图6示出在群呼过程中,第一用户410向第二用户420仅传递自己的视频,向第三用户430仅传递自己的音频的过程的示例。在群呼过程中,在从第一用户410输入向第二用户420仅传递自己的视频,向第三用户430仅传递自己的音频的请求的情况下,与并未指定目标的情况不同,可以在从第一用户410传输的数据包中包含目的地信息来传递数据包。在群呼过程中,随着从第一用户410输入向第二用户420仅传递自己的视频,向第三用户430仅传递自己的音频的请求,以从服务器接收的其他用户的源标识符为基础(例如,参照图6的表510),在与第一用户1的视频有关的数据包“P5”中可以指定源标识符Src4作为目的地信息,与第一用户的音频有关的数据包“P6”可以指定源标识符Src5作为目的地信息。在此情况下,服务器310可参照图4的表440向与数据包“P5”中指定的源标识符Src4对应的第二用户420的ip2/port2□传递数据包“P5”,向与数据包“P6”中指定的源标识符Src5对应的第三用户430的ip3/port1传递数据包“P6”。
如上所述,为了指定目的地信息,可以扩展现有的传输协议。现有的传输协议以广播的形式向所有参与人员传递数据包,因此,无需指定目标,对此,不存在用于包含目的地信息的字段。对此,在本实施例中,可通过使用在基于现有的传输协议的数据包的头预约的区域来追加用于指定目的地信息的字段的方式扩展现有的传输协议。
另一方面,可以对一个数据包指定两个以上的用户。图7中考虑除第一用户410、第二用户420及第三用户430之外第四用户710(用户4)和第五用户720(用户5)也参与群呼实例的情况。并且,图7示出第一用户410指定第二用户420和第五用户720来传递音频数据的示例。在群呼过程中,在从第一用户410输入仅向第二用户420及第五用户720传递音频的请求的情况下,与并不指定目的地的情况不同,可在从第一用户410传输的数据包中包含目的地信息来传递数据包。在群呼过程中,随着从第一用户410输入仅向第二用户420及第五用户720传递音频的请求,以从服务器接收的其他用户的源标识符为基础(例如,参照图7的表730),在包含第一用户410的音频的数据包“P7”中可指定源标识符Src3及Src8作为目的地信息。在此情况下,服务器310通过与数据包“P7”中指定的源标识符Src3对应的第二用户420的连接信息和与源标识符Src8对应的第五用户720的连接信息分别向第二用户及第五用户传递数据包“P7”。
图8为示出基于本发明一实施例的扩展的传输协议的扩展的容器格式的示例的图。图8示出扩展的实时传输协议(Real-time Transport Protocol,RTP)的传输协议的容器格式800。在此情况下,以与用于在扩展的实时传输协议的传输协议中管理源的同步源(synchronization source,SSRC)相对应的方式重新定义用于管理目的地的目的地同步源(destination synchronization source,dSSRC)。在此情况下,第一虚线框810可呈现用于在实时传输协议数据包头中记录目的地同步源的字段。其中,记录目的地同步源是指记录目的地同步源的标识符。并且,能够以与用于计数同步源的数量的CC相对应的方式重新定义用于计数目的地同步源的数量的D-CNT。图8中,第二虚线框820可表示用于计数目的地同步源的数量的字段。在此情况下,客户端可通过在数据包中添加目的地同步源来指定要传递数据包的其他客户端,服务器310可通过从客户端接收的数据包中所包含的目的地同步源确认传递数据包的目的地来向对应目的地传输数据包。
图9及图10为示出本发明一实施例的选择耳语对象的画面示例的图。
图9的第一画面900可以为参与群呼的任意用户的终端画面。上述用户的终端画面可通过触摸屏画面构成。在此情况下,从参与群呼的多个参与人员接收的多个数据包中所包含的多个影像可通过用于各个参与人员的对象显示在第一画面900中。多个数据包可通过用于群呼的服务器进行路由并向各个参与人员传递。并且,包含在多个数据包中的多个音频(作为一例,多个参与人员中的每一个的语音)可通过用户终端所包括的如扬声器的输出装置(作为一例,扬声器)输出。并且,在用户终端中,通过输入装置(作为一例,摄像头和/或麦克风)输入的影像和/或音频可通过服务器被路由,从而可以向各个参与人员传递。
图10的第二画面1000示出在群呼过程中,用户选择自己需要发送耳语的参与人员的示例。作为一例,用户可以在自己的终端画面中显示的多个对象(显示多个参与人员的影像的多个对象)中,触摸与需要发送耳语的参与人员相对应的对象的区域。在此情况下,用户终端可以识别维持触摸的对象,以可以仅向与所识别的对象相对应的参与人员传递在维持触摸的期间输入的影像和/或音频的方式构成耳语数据包。例如,在第二画面1000中示出用户向显示“第六用户(用户6)”的影像的对象的区域输入长按手势的示例。在此情况下,用户终端能够以仅向“第六用户”传递在维持长按手势的期间输入的影像和/或音频的方式构成耳语数据包来向用于群呼的服务器传递。在此情况下,服务器可仅向“第六用户”传递耳语数据包。在此情况下,若解除长按手势,则如第一画面900所示,之后输入的影像和/音频再次向群呼的所有参与人员传递。换句话说,用户在进行群呼的过程中,可仅通过在画面上触摸与需要进行耳语的参与人员相对应的对象,可以迅速且简单地向对应参与人员发送耳语,仅通过解除触摸,可以再次迅速地回到群呼。
图11为示出本发明一实施例的接收耳语数据包的情况的画面示例的图。第三画面1100示出其他参与人员发送耳语的情况的示例。第三画面1100示出随着“第一用户”向用户发送耳语,强调显示“第一用户”的影像的状态。在此情况下,用户终端可通过调制“第一用户”的耳语,换句话说,包含在所接收的耳语数据包的音频来输出,由此,可以强调“第一用户”的语音来输出。作为一例,与耳语相对应的音频可通过振鸣处理进行调制并输出。在此情况下,用户可以轻松识别向自己发送耳语的参与人员。
图12及图13为示出本发明一实施例的设定耳语小组的示例的图。
图12的第四画面1200示出用于设定耳语小组的区域1210。在第四画面1200中,用户随着在显示多个参与人员的影像的多个对象中,通过拖放(Drag and Drop,D&D)向上述区域1210移动需要包括在耳语小组的参与人员的对象,可以轻松地向耳语小组添加对应参与人员。
在图13的第五画面1300中,第一显示1310示出随着在第四画面1200中,用户向上述区域1210移动与一名参与人员相对应的对象,在可包括四名参与人员的耳语小组中包括一名参与人员。通过相同的方式,用户可通过向上述区域1210移动与需要参与耳语小组的多个参与人员相对应的多个对象来设定耳语小组。可包括在耳语小组的多个参与人员的数量可以根据实施例自由地设定,并不受到额外的限制。
图14及图15为示出本发明一实施例的设定耳语小组的另一示例的图。
图14的第六画面1400示出用于进入到用于选择将包括在耳语小组的多个参与人员的按钮1410。随着用户选择按钮1410(作为一例,用手指触摸显示按钮1410的区域),可以激活对应模式。并且,在激活对应模式的状态下,在用户再选择对应按钮1410的情况下,可以停用对应模式。
图15的第七画面1500示出用户在激活用于选择将包括在耳语小组的多个参与人员的状态下,与随着选择显示多个参与人员的影像的对象(作为一例,用手指触摸显示对象的区域)而选择的对象相对应的多个参与人员参与耳语小组的示例。第七画面1500示出用户随着选择“第六用户”及“第十一用户(用户11)”,向对应对象指示对应参与人员为了耳语小组而被选择的示例。在此情况下,第二显示1530可以示出用户在上述模式中选择的多个参与人员的数量。作为一例,第二显示1530示出可包括四名参与人员的耳语小组中包括两名参与人员。作为另一例,第二显示1530能够以在耳语小组中包括的参与人员的简介为基础确定。如上所述,可包括在耳语小组的多个参与人员的数量可以根据实施例自由地设定,并不受到额外的限制。
虽然未图示,根据另一实施例,根据图12至图15中的一个,当由终端的用户设定耳语小组时,设定对应耳语小组的终端的用户在没有额外的输入的情况下也可以自动包括在耳语小组。
图16为示出本发明一实施例的激活耳语小组的示例的图。图16示出如之前说明的图9的第一画面900所示在进行群呼的过程中,用户通过预设触摸手势(在本实施例中,沿着第一方向的滑动)来如第八画面1600所示激活耳语小组的示例。例如,在第一画面900中识别到从右侧向左侧的滑动的情况下,用户的终端可以激活已设定的耳语小组。在此情况下,第八画面1600示出激活包括四名参与人员(第一用户、第六用户、第十用户(用户10)及第十二用户(用户12))的耳语小组的示例。在激活对应耳语小组的期间,以仅向包括在耳语小组的多个参与人员传递通过用户的终端的输入装置(摄像头和/或麦克风)输入的影像和/或音频的方式构成耳语数据包。在第八画面1600中识别到第二方向的滑动(作为一例,从左侧向右侧的滑动)的情况下,用户的终端停用耳语小组,可以再次如第一画面900所示处理与群呼的全部参与人员的通话。作为另一例,可通过用户设定多个耳语小组。作为具体的示例,可设定包括四名参与人员(第一用户、第六用户、第十用户及第十二用户)的第一耳语小组和包括三名参与人员(第三用户、第六用户及第九用户(用户9))的第二耳语小组。在此情况下,在第一画面900中识别到从右侧向左侧的滑动的情况下,用户的终端可激活第一耳语小组,在再次识别到从右侧向左侧的滑动的情况下,可激活第二耳语小组。相反,在激活第二耳语小组的状态下,在识别到从左侧向右侧的滑动的情况下,可以再次激活第一耳语小组,在第一耳语小组被激活的状态下,在识别到从左侧向右侧的滑动的情况下,停用耳语小组,可以如第一画面900所示处理与群呼的全部参与人员的通话。在本实施例中,所使用的滑动为用于迅速激活耳语小组的例示,可通过上述说明轻松理解耳语小组可以通过其他触摸手势激活和/或停用。
图17为示出本发明一实施例的包含在耳语小组中接收耳语的情况的画面示例的图。若其他参与人员通过包括用户来设定耳语小组,则可以自动生成包括用户的耳语小组,若激活耳语小组并接收到耳语数据包,则如图17的第九画面1700所示,用户的终端可以强调显示与耳语小组的多个参与人员(第一用户、第六用户、第十用户及第十二用户)相对应的多个对象。在此情况下,如上所述,通过耳语数据包传递的音频可以被调制并输出。例如,用户的终端可通过振鸣处理调制包含在耳语数据包的音频之后,通过扬声器输出。若一名用户(作为一例,第一用户)设定耳语小组,则对耳语小组的其他参与人员(第六用户、第十用户及第十二用户)自动设定对应耳语小组,从而耳语小组的所有参与人员可以向对应耳语小组传递耳语。
图18为示出本发明一实施例的群呼方法的示例的流程图。本发明实施例的群呼方法可通过实现参与群呼会话的客户端的计算机装置200执行。在此情况下,计算机装置200的处理器220可执行存储器210所包括的操作系统的代码或基于至少一个程序代码的控制指令(instruction)。其中,处理器220可以控制计算机装置200,以根据存储于计算机装置200的代码提供的控制指令,使计算机装置200执行图18的方法所包括的多个步骤(步骤1810至步骤1860)。
在步骤1810中,计算机装置200可参与群呼会话。若计算机装置200参与群呼会话,则可以与参与对应群呼会话的其他参与人员进行群呼。如上所述,在群呼过程中,包含影像和/或音频的数据包可以向参与群呼会话的多个参与人员广播。
在步骤1820中,在维持群呼会话的状态下,计算机装置200可根据对于计算机装置200所包括的触摸屏画面的触摸手势来将参与群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象。其中,触摸屏画面可包括在通过上述图2说明的输入输出装置250中。
在一实施例中,计算机装置200可在上述触摸屏画面上显示与多个参与人员中的每一个相对应的对象,识别在触摸屏画面中发生并维持规定时间以上的触摸所指示的对象。在此情况下,计算机装置200可以将与在维持触摸的期间识别的对象相对应的参与人员指定为耳语对象。在解除对应触摸的情况下,对应参与人员可以从耳语对象中解除。换句话说,在与显示在触摸屏上的多个参与人员中的每一个相对应的多个对象中,用户可仅通过触摸及解除触摸所需要的参与人员的对象来迅速指定耳语对象来发送耳语。
在另一实施例中,在维持群呼会话的状态下,计算机装置200可设定包括多个参与人员中的至少一个参与人员的耳语小组,可根据对于触摸屏画面的预设触摸手势激活耳语小组。作为一例,计算机装置200可根据沿着相对于触摸屏画面的第一方向的滑动手势激活耳语小组。在激活耳语小组的状态下,在发生沿着与第一方向相反的第二方向的滑动手势的情况下,计算机装置200可以停用耳语小组。在此情况下,在耳语小组被激活的期间,计算机装置200可以将包括在耳语小组中的至少一个参与人员指定为耳语对象。换句话说,用户可通过简单的触摸手势激活和/或停用耳语小组,在全部参与人员中,可仅向属于耳语小组的多个参与人员简单发送耳语。
作为用于设定耳语小组的一实施例,计算机装置200可以在触摸屏画面上显示与多个参与人员中的每一个相对应的多个对象及耳语小组设定区域。在此情况下,用户可利用拖放手势向上述设定区域移动需要包括在耳语小组的参与人员的对象。在此情况下,计算机装置200可识别向设定区域移动的对象,将与所识别的对象相对应的参与人员包括在耳语小组,由此可以轻松且迅速地设定耳语小组。
作为用于设定耳语小组的另一实施例,计算机装置200可以在触摸屏画面上显示与多个参与人员中的每一个相对应的多个对象及耳语小组生成按钮。在此情况下,在激活耳语小组生成按钮的状态下,用户可以选择需要包括在耳语小组的参与人员的对象(作为一例,用手指触摸显示对应对象的区域)来选择参与人员。在此情况下,计算机装置200可识别在触摸屏画面中发生的触摸所指示的对象,将与所识别的对象相对应的参与人员包括在耳语小组,由此可以轻松且迅速地设定耳语小组。
在步骤1830中,在指定耳语对象的期间,计算机装置200可以以向耳语对象传递通过计算机装置200所包括的输入装置输入的影像及音频中的至少一个的方式构成耳语数据包。在此情况下,通过图3至图8,详细说明了如何构成耳语数据包。其中,作为一例,输入装置可包括摄像头和/或麦克风,这也可包括在通过图2说明的输入输出装置250。
在步骤1840中,计算机装置200可通过群呼会话向服务器传输耳语数据包。在此情况下,服务器可仅向对应参与人员传递耳语数据包,由此可以迅速处理耳语。在此情况下,通过图3至图8,详细说明了服务器如何向对应参与人员传递耳语数据包。
在步骤1850中,计算机装置200可从服务器接收耳语数据包。例如,在群呼会话的其他参与人员将用户指定为耳语对象的情况下,来自其他参与人员的终端的耳语数据包可通过服务器向计算装置200传输。
在步骤1860中,计算机装置200可通过调制所接收的耳语数据包所包含的音频来通过计算机装置200所包括的输出装置(作为一例,计算机装置200所包括的扬声器)输出,或者通过触摸屏画面显示与多个参与人员中的每一个相对应的多个对象,并强调显示与传送所接收的耳语数据包的参与人员相对应的对象,或者强调显示与由传送所接收的耳语数据包的参与人员设定的耳语小组的多个参与人员相对应的多个对象。作为一例,在其他参与人员仅将用户指定为耳语对象来传送耳语数据包的情况下,可以强调显示与传送耳语数据包的参与人员相对应的对象,可以调制包含在耳语数据包中的对应参与人员的音频来输出。作为另一例,在包括在耳语小组的任意参与人员传送耳语数据包的情况下,对应耳语数据包可以向包括在对应耳语小组的多个参与人员传递。在此情况下,计算机装置200可调制包括在耳语小组的多个参与人员发送的耳语数据包的音频的全部来输出,在此情况下,可强调与包括在耳语小组的多个参与人员相对应的多个对象的全部来显示在触摸屏画面上。
如上所述,根据本发明的实施例,在与群呼的全部参与人员进行群呼的过程中,可通过瞬间选择参与人员(或参与人员小组)来与所选择的参与人员(或参与人员小组)进行耳语。
以上说明的系统或装置可通过硬件结构要素、软件结构要素或硬件结构要素及软件结构要素的组合实现。例如,在实施例中说明的装置及结构要素可利用一个以上的通用计算机或专用计算机(例如处理器、控制器、算术逻辑单元(arithmetic logic unit,ALU)、数字信号处理器(digital signal processor)、微计算机、现场可编程门阵列(fieldprogrammable gate array,FPGA)、可编程逻辑单元(programmable logic unit,PLU)、微处理器或可执行指令并可响应的其他任何装置)来实现。处理装置可执行操作系统(OS)及在上述操作系统上执行的一个以上的软件应用。并且,处理装置响应于软件的执行,可实现数据的访问、存储、操作、处理及生成。为了方便理解,存在将处理装置说明为仅适用一个的情况,但本发明所属技术领域的技术人员可以熟知处理装置能够包括多个处理要素(processing element)和/或多个类型的处理要素。例如,处理装置可包括多个处理器或一个处理器及一个控制器。并且,也可包括如并行处理器(parallel processor)的其他处理结构(processing configuration)。
软件可包括计算机程序(computer program)、代码(code)、指令(instruction)或它们中的一个以上的组合,以按需要进行操作的方式构成处理装置或者独立或结合性(collectively)地向处理装置下达指令。软件和/或数据为了通过处理装置解释或者向处理装置提供指令或数据而具体体现(embody)在任何类型的机器、结构要素(component)、物理装置、虚拟装置(virtual equipment)、计算机存储介质或装置。软件可分散在通过网络连接的计算机系统上,可通过分散的方法存储或执行。软件及数据可存储于一个以上的计算机可读记录介质。
实施例的方法可实现为能够通过多种计算机单元执行的程序指令形式来记录在计算机可读介质中。上述计算机可读介质可单独或组合包含程序指令、数据文件、数据结构等。介质继续存储计算机可执行程序,或者为了执行或下载而可以暂时存储。并且,介质可以为单一或多个硬件结合的形式的多种记录单元或存储单元,并不局限于与一种计算机系统直接连接的介质,而是可以在网络上分散存在。作为介质的例示,可包括如硬盘、软盘、磁带的磁介质、如CD-ROM及DVD的光记录介质、如软盘(floptical disk)的磁光介质(magneto-optical medium)及只读存储器、随机存取存储器、闪存等配置为存储程序指令的介质。并且,作为其他介质的例示,可以为流通应用的应用商店、供给或流通其他多种软件的网站以及在服务器等中管理的记录介质或存储介质。在程序指令的示例中,包含通过编译器形成的机器语言代码和可使用解释器等来通过计算机执行的高级语言代码。
如上所述,虽然通过限定的实施例和附图说明了实施例,但只要是本发明所属技术领域的技术人员,可从上述记载进行多种修改及变形。例如,即使说明的技术按与说明的方法不同的顺序执行,和/或说明的系统、结构、装置、电路等的结构要素按与说明的方法不同的形式结合或组合,或者被其它结构要素或等同物代替或置换,也可达成适当结果。
因此,其他实例、其他实施例及与发明要求保护范围等同的内容也属于后述的发明要求保护范围内。

Claims (14)

1.一种群呼方法,由包括至少一个处理器的计算机装置实施,其特征在于,包括:
参与步骤,通过上述至少一个处理器参与群呼会话;
指定步骤,通过上述至少一个处理器,在维持上述群呼会话的状态下,根据对于上述计算机装置所包括的触摸屏画面的手势,将参与上述群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象;
构成步骤,通过上述至少一个处理器,在指定上述耳语对象的期间,以使通过上述计算机装置所包括的输入装置输入的影像及音频中的至少一个向上述耳语对象传递的方式构成耳语数据包;以及
传输步骤,通过上述至少一个处理器,通过上述群呼会话向服务器传输上述耳语数据包,
指定上述耳语对象的步骤包括:
在维持上述群呼会话的状态下,设定包括上述多个参与人员中的至少一个参与人员的耳语小组,其中上述耳语小组包括第一耳语小组和第二耳语小组,
在上述第一耳语小组被激活的情况下识别到对于上述触摸屏画面的沿着第一方向的滑动姿势的情况下,停用上述第一耳语小组并激活上述第二耳语小组。
2.根据权利要求1所述的群呼方法,其特征在于,指定上述耳语对象的步骤包括:
显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的对象;
识别步骤,识别在上述触摸屏画面中发生并维持设定时间以上的触摸所指示的对象;以及
指定步骤,在维持上述触摸的期间,将与所识别的上述对象相对应的参与人员指定为上述耳语对象。
3.根据权利要求1所述的群呼方法,其特征在于,指定上述耳语对象的步骤包括:
激活步骤,根据对于上述触摸屏画面的已设定的触摸手势来激活上述耳语小组;以及
指定步骤,在上述耳语小组被激活的期间,将包含在上述耳语小组中的至少一个参与人员指定为上述耳语对象。
4.根据权利要求3所述的群呼方法,其特征在于,
在设定上述耳语小组的步骤中,分别设定包括至少一个参与人员的两个以上的耳语小组,
在激活上述耳语小组的步骤中,根据已设定的上述触摸手势来选择性地激活两个以上的上述耳语小组中的一个耳语小组。
5.根据权利要求3所述的群呼方法,其特征在于,响应于上述耳语小组的设定,通过上述服务器,还对上述耳语小组中所包括的上述至少一个参与人员中的每一个自动设定上述耳语小组。
6.根据权利要求3所述的群呼方法,其特征在于,设定上述耳语小组的步骤包括:
显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的多个对象及耳语小组设定区域;
识别步骤,识别通过拖放手势向上述设定区域移动的对象;以及
包括步骤,将与所识别的上述对象相对应的参与人员包括在上述耳语小组。
7.根据权利要求3所述的群呼方法,其特征在于,设定上述耳语小组的步骤包括:
显示步骤,在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的多个对象及耳语小组生成按钮;
识别步骤,在激活上述耳语小组生成按钮的状态下,识别在上述触摸屏画面中发生的触摸所指示的对象;以及
包括步骤,将与所识别的上述对象相对应的参与人员包括在上述耳语小组。
8.根据权利要求1所述的群呼方法,其特征在于,还包括:
接收步骤,通过上述至少一个处理器,从上述服务器接收耳语数据包;以及
输出步骤,通过上述至少一个处理器,通过调制包含在所接收的上述耳语数据包的音频来通过上述计算机装置所包括的输出装置进行输出。
9.根据权利要求1所述的群呼方法,其特征在于,还包括:
接收步骤,通过上述至少一个处理器,从上述服务器接收耳语数据包;以及
显示步骤,通过上述至少一个处理器,通过上述触摸屏画面显示与上述多个参与人员中的每一个相对应的多个对象,并强调显示与传输所接收的上述耳语数据包的参与人员相对应的对象。
10.一种计算机可读记录介质,其特征在于,记录有用于在计算机装置中执行权利要求1至9中任一项所述的方法的计算机程序。
11.一种计算机装置,其特征在于,
包括实现为执行计算机可读指令的至少一个处理器,
通过上述至少一个处理器参与群呼会话,
在维持上述群呼会话的状态下,根据对于上述计算机装置所包括的触摸屏画面的触摸手势,将参与上述群呼会话的多个参与人员中的至少一个参与人员指定为耳语对象,
在指定上述耳语对象的期间,以使通过上述计算机装置所包括的输入装置输入的影像及音频中的至少一个向上述耳语对象传递的方式构成耳语数据包,
通过上述群呼会话向服务器传输上述耳语数据包,
指定上述耳语对象包括:
在维持上述群呼会话的状态下,设定包括上述多个参与人员中的至少一个参与人员的耳语小组,其中上述耳语小组包括第一耳语小组和第二耳语小组,
在上述第一耳语小组被激活的情况下识别到对于上述触摸屏画面的沿着第一方向的滑动的情况下,停用上述第一耳语小组并激活上述第二耳语小组。
12.根据权利要求11所述的计算机装置,其特征在于,通过上述至少一个处理器,
在上述触摸屏画面上显示与上述多个参与人员中的每一个相对应的对象,
识别在上述触摸屏画面中发生并维持设定时间以上的触摸所指示的对象,
在维持上述触摸的期间,将与所识别的上述对象相对应的参与人员指定为上述耳语对象。
13.根据权利要求11所述的计算机装置,其特征在于,通过上述至少一个处理器,
根据对于上述触摸屏画面的已设定的触摸手势来激活上述耳语小组,
在上述耳语小组被激活的期间,将包含在上述耳语小组中的至少一个参与人员指定为上述耳语对象。
14.根据权利要求11所述的计算机装置,其特征在于,通过上述至少一个处理器,
从上述服务器接收耳语数据包,
通过调制包含在所接收的上述耳语数据包的音频来通过上述计算机装置所包括的输出装置进行输出,或者通过上述触摸屏画面显示与上述多个参与人员中的每一个相对应的多个对象,并强调显示与传输所接收的上述耳语数据包的参与人员相对应的对象,或者强调显示与由传输所接收的上述耳语数据包的参与人员设定的耳语小组的参与人员相对应的多个对象。
CN202011090124.5A 2019-10-14 2020-10-13 群呼方法、计算机装置及计算机可读记录介质 Active CN112738013B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190126918A KR102187005B1 (ko) 2019-10-14 2019-10-14 귓속말을 이용한 그룹 통화 방법 및 시스템
KR10-2019-0126918 2019-10-14

Publications (2)

Publication Number Publication Date
CN112738013A CN112738013A (zh) 2021-04-30
CN112738013B true CN112738013B (zh) 2024-09-24

Family

ID=73776683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011090124.5A Active CN112738013B (zh) 2019-10-14 2020-10-13 群呼方法、计算机装置及计算机可读记录介质

Country Status (4)

Country Link
US (1) US11570221B2 (zh)
JP (1) JP2021064944A (zh)
KR (1) KR102187005B1 (zh)
CN (1) CN112738013B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021211274A1 (de) 2021-10-06 2023-04-06 Heinlein Support GmbH Verfahren zum Ausbilden einer virtuellen Subraum-Kommunikation zwischen wenigstens zwei Hauptraum-Teilnehmern einer virtuellen Hauptraum-Kommunikation
JP2023141285A (ja) * 2022-03-23 2023-10-05 株式会社Jvcケンウッド 会議支援装置、および会議支援方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608636B1 (en) * 1992-05-13 2003-08-19 Ncr Corporation Server based virtual conferencing
US20040006595A1 (en) * 2002-07-03 2004-01-08 Chiang Yeh Extended features to conferencing system using a web-based management interface
US20050245317A1 (en) * 2004-04-30 2005-11-03 Microsoft Corporation Voice chat in game console application
KR100640324B1 (ko) * 2004-08-19 2006-10-30 삼성전자주식회사 이동통신 단말기에서의 푸시투토크 방식의 그룹 통화 방법
KR100625665B1 (ko) 2005-04-26 2006-09-20 에스케이 텔레콤주식회사 모드 전환 기능을 구비한 그룹 통화 서버 및 모드 전환방법
US20070156811A1 (en) * 2006-01-03 2007-07-05 Cisco Technology, Inc. System with user interface for sending / receiving messages during a conference session
US20070233802A1 (en) * 2006-02-02 2007-10-04 Sonim Technology, Inc. Methods and arrangements for implementing whisper mode conversations during a multiparty telecommunication session
US8326927B2 (en) * 2006-05-23 2012-12-04 Cisco Technology, Inc. Method and apparatus for inviting non-rich media endpoints to join a conference sidebar session
US8121277B2 (en) * 2006-12-12 2012-02-21 Cisco Technology, Inc. Catch-up playback in a conferencing system
US20120017149A1 (en) * 2010-07-15 2012-01-19 Jeffrey Lai Video whisper sessions during online collaborative computing sessions
US8676892B2 (en) * 2010-11-01 2014-03-18 Google Inc. Visibility inspector in social networks
KR102050814B1 (ko) * 2013-04-02 2019-12-02 삼성전자주식회사 그룹 대화에서 사적 대화 제공 장치 및 방법
US20140310680A1 (en) * 2013-04-15 2014-10-16 Massively Parallel Technologies, Inc. System And Method For Collaboration
US10257360B2 (en) * 2013-10-09 2019-04-09 Swn Communications Inc. System and method to improve management during a conference call
KR20150066421A (ko) * 2013-12-06 2015-06-16 (주)브라이니클 애플리케이션의 메시지 전송방법
US9307089B2 (en) * 2014-08-27 2016-04-05 Verizon Patent And Licensing Inc. Conference call systems and methods
KR20160085614A (ko) * 2015-01-08 2016-07-18 엘지전자 주식회사 이동단말기 및 그 제어방법
US20170310717A1 (en) * 2016-04-22 2017-10-26 Hey There, LLC System and method for instantiating a hidden secondary chat session for a primary chat session
US20170351476A1 (en) * 2016-06-03 2017-12-07 Avaya Inc. Create private interaction workspace

Also Published As

Publication number Publication date
JP2021064944A (ja) 2021-04-22
CN112738013A (zh) 2021-04-30
US20210112104A1 (en) 2021-04-15
KR102187005B1 (ko) 2020-12-04
US11570221B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
US11968055B2 (en) Assigning participants to rooms within a virtual conferencing system
US11470127B2 (en) Method, system, and non-transitory computer-readable record medium for displaying reaction during VoIP-based call
CN109510714B (zh) 即时通讯中的会议邀请方法、资源分配方法及装置
KR102188537B1 (ko) 유니캐스트 및 멀티캐스트를 이용한 그룹 통화 방법 및 시스템
US20120206319A1 (en) Method and apparatus for sharing media in a multi-device environment
US20150032809A1 (en) Conference Session Handoff Between Devices
KR20210010665A (ko) 지오-로케이션 기반 이벤트 갤러리
CN109923571A (zh) 用于团队协作工具中的通道的实况会议
KR102638580B1 (ko) 하나의 대화방에서 다수의 그룹통화를 제공하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
CN111880695A (zh) 一种屏幕共享方法、装置、设备及存储介质
CN112738013B (zh) 群呼方法、计算机装置及计算机可读记录介质
EP3065339B1 (en) Record and playback in a conference
CN107797717A (zh) 推送方法、显示方法、客户端设备和数据处理系统
CN104509095A (zh) 协同环境和视图
KR102396392B1 (ko) 통신 세션상의 참가자들 중 일부를 위한 가상의 통신 세션을 제공하는 시스템 및 방법
KR20220159968A (ko) 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
KR20210089420A (ko) 특화된 태그를 이용하여 그룹을 생성하는 방법, 시스템, 및 컴퓨터 프로그램
KR20220160558A (ko) 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템
CN117980936A (zh) 跨组织的名册管理
Kim et al. CyberOffice: a smart mobile application for instant meetings
US10142380B2 (en) Joining executable component to online conference
CN115065668B (zh) 一种会议呼叫方法、装置、设备及介质
JP2022122333A (ja) サーバシステム、プログラム及び通信システム
JP2024073794A (ja) 仮想空間生成装置、仮想空間生成プログラム、および、仮想空間生成方法
CN115525190A (zh) 一种消息处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant