JP7004944B2 - コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 - Google Patents

コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7004944B2
JP7004944B2 JP2020541526A JP2020541526A JP7004944B2 JP 7004944 B2 JP7004944 B2 JP 7004944B2 JP 2020541526 A JP2020541526 A JP 2020541526A JP 2020541526 A JP2020541526 A JP 2020541526A JP 7004944 B2 JP7004944 B2 JP 7004944B2
Authority
JP
Japan
Prior art keywords
output result
audio
server
face
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020541526A
Other languages
English (en)
Other versions
JP2021513699A (ja
Inventor
▲逸▼▲シン▼ ▲デン▼
▲シン▼ 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021513699A publication Critical patent/JP2021513699A/ja
Application granted granted Critical
Publication of JP7004944B2 publication Critical patent/JP7004944B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • H04L65/4025Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本願は、2018年02月06日に中国特許庁に提出された、出願番号がCN201810117665.9であり、発明の名称が「コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体」である中国特許出願の優先権を主張し、当該中国特許出願の全てのコンテンツが参照により本願に組み込まれている。
本願実施例は、人工知能(AI:Artificial Intelligence)領域、具体的に、コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体に関するものである。
ネットワークコミュニティは、ユーザが他のユーザと対話できるプラットフォームである。ユーザは、当該ネットワークコミュニティで、ユーザオリジナルコンテンツ(UGC:User Generated Content)を送信できる。当該ユーザオリジナルコンテンツは、ユーザが編集して生成したテキストコンテンツ、ローカルでユーザによってアップロードされた写真、音声録音機能によりユーザが録音した音声など含み、他のユーザは、当該ユーザオリジナルコンテンツを閲覧および当該ユーザオリジナルコンテンツとの対話を実行できる。
ユーザがネットワークコミュニティで送信するコンテンツはさまざまであり、ユーザは、ネットワークコミュニティでテキスト、写真、ビデオ、音声などを送信できる。例えば、第1ユーザはテキストを編集して、ユーザの携帯電話におけるローカル画像を添付し、テキストと写真を組み合わせた形のコンテンツを、ユーザオリジナルコンテンツとしてネットワークコミュニティに送信し、他のユーザは、当該ネットワークコミュニティで、当該第1ユーザによって送信されたユーザオリジナルコンテンツ、つまりテキストと写真を閲覧でき、当該ユーザオリジナルコンテンツに対して、コメント、再投稿、「いいね!」ボタンを押すなどの形式で対話を実行できる。
ただし、ネットワークコミュニティでユーザが表示するユーザオリジナルコンテンツでは、写真は、ユーザがアップロードした写真のみであり、形式が単調である。
本願実施例は、ネットワークコミュニティでの、ユーザによって表示されるコンテンツの形式が単調であるという課題を解決する、コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体を開示する。
本願実施例の一態様によれば、端末に適用されるコンテンツ投稿方法を開示し、当該投稿方法は、
マルチメディア素材および地理的位置情報を取得することと、
マルチメディア素材および地理的位置情報をサーバにアップロードすることと、
ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示することであって、第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力した後に取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであることと、
ユーザコンテンツを生成することであって、当該ユーザコンテンツは、第1出力結果および第2出力結果を含むこととを含む。
本願実施例の別の態様によれば、コンテンツ投稿方法を開示し、当該投稿方法は、
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信することと、
マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得することと、
第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得することと、
第1出力結果および第2出力結果を端末に送信することと、
端末がネットワークコミュニティプラットフォームを介して送信したユーザコンテンツを受信することであって、当該ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含む。
本願実施例の別の態様によれば、コンテンツ投稿装置を開示し、当該投稿装置が、
マルチメディア素材および地理的位置情報を取得するように構成される取得モジュールと、
マルチメディア素材および地理的位置情報をサーバにアップロードするように構成されるアップロードモジュールと、
ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示するように構成される表示モジュールであって、第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力した後取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであり、
ユーザコンテンツを生成するように構成される生成モジュールであって、当該ユーザコンテンツは第1出力結果および第2出力結果を含む生成モジュールとを備える。
本願実施例の別の態様によれば、コンテンツ投稿装置を更に開示し、当該投稿装置が、
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信するように構成される第2受信モジュールと、
マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得するように構成される入力モジュールと、
第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得するように構成される結合モジュールと、
第1出力結果および第2出力結果を端末に送信するように構成される第2送信モジュールとを備え、
第2送信モジュールは、端末がネットワークコミュニティプラットフォームを介して送信した、第1出力結果および前記第2出力結果を含むユーザコンテンツを受信するように更に構成される。
本願実施例の別の態様によれば、コンピュータ機器を開示し、当該コンピュータ機器が、プロセッサと、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶されたメモリとを備え、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットがプロセッサによってロードおよび実行されると、上述の本願実施例で開示されたコンテンツ投稿方法を実現する。
本願実施例の別の態様によれば、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットか記憶されたコンピュータ読み取り可能な記憶媒体を開示し、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットがプロセッサによってロードおよび実行されると、上述の本願実施例で開示されたコンテンツ投稿方法を実現する。
本願実施例の別の態様によれば、コンピュータプログラム製品を開示し、コンピュータプログラム製品がコンピュータで実行されると、コンピュータに上述の本願実施例で開示されたコンテンツ投稿方法を実行させる。
本願実施例で開示される技術的解決策は、以下の有益な効果を含み得る。
マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、および第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って生成したコンテンツをネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善するため、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
本願実施例の技術的解決策をより明確に説明するために、以下は、実施例の説明で使用される図面について簡単に紹介する。以下に説明される図面は、本開示のいくつかの実施例に過ぎず、当業者にとっては、創造的な作業なしに、これらの図面にしたがって他の図面を得ることもできることは自明である。
本願の一例示的な実施例で開示される実施環境シナリオの概略図である。 本願の一例示的な実施例で開示されるコンテンツ投稿方法のフローチャートである。 本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートである。 本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートである。 図4に示される実施例に基づいて開示されるコンテンツ投稿方法のフローチャートである。 図4に示される実施例に基づいて開示される別のコンテンツ投稿方法のフローチャートである。 本願の別の例示的な実施例で開示される端末のユーザインターフェースの概略図である。 本願の別の例示的な実施例で開示される端末のユーザインターフェースの概略図である。 本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートである。 図9に示される実施例に基づいて開示されるコンテンツ投稿方法のフローチャートである。 図9に示される実施例に基づいて開示される別のコンテンツ投稿方法のフローチャートである。 図9に示される実施例に基づいて開示される別のコンテンツ投稿方法のフローチャートである。 本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートである。 本願の別の例示的な実施例で開示される端末のユーザインターフェースの概略図である。 本願の一例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図である。 本願の別の例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図である。 本願の別の例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図である。 本願の別の例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図である。 本願の一例示的な実施例で開示されるコンピュータ機器の構造ブロック図である。
本願の目的、技術的解決策および利点をより明確に説明するために、本開示の実施形態を添付の図面を参照して以下に詳細に説明する。
最初に、本願実施例に関する名詞の一部を説明する。
ネットワークコミュニティプラットフォーム:表示用のコンテンツの投稿サービスをユーザに提供するプラットフォームである。ユーザが当該ネットワークコミュニティプラットフォームで投稿したコンテンツは、他のユーザによって閲覧できる。例示的に、上述の投稿されたコンテンツは、ユーザ生成コンテンツ(ユーザオリジナルコンテンツとも呼ばれる)であってもよいし、ユーザによって再投稿されたコンテンツなどであってもよいが、本願実施例では、主にユーザオリジナルコンテンツについて説明する。
例示的に、1つのコミュニティは、いくつかのサークルを含み、各サークルは、異なるトピックに対応し、つまり、ユーザは1つのサークルで1つのトピックを中心に話し合うことができる。
ユーザコンテンツ:ネットワークコミュニティプラットフォームに投稿するために端末で生成されたコンテンツを指す。例示的に、当該ユーザコンテンツは、写真、ビデオ、テキスト、オーディオおよび絵文字のうちの少なくとも1つを含んでもよい。当該ユーザコンテンツはまた、ユーザオリジナルコンテンツと非オリジナルコンテンツに分けることができ、ユーザオリジナルコンテンツは、端末で、ユーザによって編集、撮影、記録、ローカル画像をアップロードして生成したコンテンツを指し、非オリジナルのコンテンツは、ユーザの再投稿、ダウンロード、コピーアンドペーストなどの方式で生成したコンテンツを指すが、本願実施例では、主にユーザオリジナルコンテンツについて説明する。
人工知能モデル:人工知能を使用して画像、音声、テキストなどのコンテンツを識別および処理する機械学習モデルである。例示的に、当該人工知能モデルは、1つまたは複数のニューラルネットワークで構成できる。
例示的に、人工知能モデルは、ディープニューラルネットワーク(DNN:Deep Neural Network)モデル、リカレントニューラルネットワーク(RNN:Recurrent Neural Networks)モデル、埋め込み(embedding)モデル、勾配ブースティング決定木(GBDT:Gradient Boosting Decision Tree)、ロジスティック回帰(LR:Logistic Regression)モデルのうちの少なくとも1つを含んでもよいが、これらに限定されるものではない。
DNNモデルは、ディープラーニングフレームワークである。DNNモデルは、入力層、少なくとも1つの非表示層(中間層とも呼ばれる)、および出力層を含む。例示的に、入力層、少なくとも1つの非表示層(中間層とも呼ばれる)、および出力層は受信したデータの処理に使用される少なくとも1つのニューロンを含んでもよい。例示的に、異なる層の間のニューロンの数は同じでもよいし、異なってもよい。
RNNモデルは、フィードバック構造を有するニューラルネットワークである。RNNモデルでは、ニューロンの出力は、次のタイムスタンプで、それ自体に直接影響を与えることができる。つまり、第i層のニューロンの時刻mの入力は、当該時刻での(i-1)層のニューロンの出力に加えて、時刻(m-1)での自体の出力も含む。
embeddingモデルは、実体と関係の分散ベクトル表現に基づいて、各3タプル実例における関係を実体の先頭から末尾への翻訳として扱う。3タプル実例は、本体、関係、客体を含み、(本体、関係、客体)として表すことができ、本体は実体の先頭であり、客体は実体の末尾である。例えば、「張ちゃんの父親は張さんです」というフレーズの場合、3タプル実例では(張ちゃん、父親、張さん)として表す。
GBDTモデルは、反復決定木アルゴリズムであり、当該アルゴリズムは複数の決定木で構成され、すべての決定木の結果を最終結果として加算する。決定木の各ノードは予測値を取得し、年齢を例にとると、予測値は、年齢に対応するノードに属するすべての人々の年齢の平均値である。
LRモデルは、線形回帰に基づいて、論理関数を適用して確立したモデルを指す。
図1は、本願の一例示的な実施例で開示される実施環境シナリオの概略図であり、図1に示されるように、当該実施環境は、端末11、サーバ12および通信ネットワーク13を含む。
当該端末11は、ネットワークコミュニティプラットフォームにアクセスするために使用され、当該ネットワークコミュニティプラットフォームは、ユーザコンテンツを共有できるプラットフォームである。ここで、ユーザコンテンツは、少なくともユーザオリジナルコンテンツおよび非オリジナルコンテンツを含む。例示的に、端末11で、ネットワークコミュニティプラットフォームサービスを提供するクライアントが実行され、当該クライアントは、ブラウザアプリケーション、インスタントメッセージングアプリケーション、オーディオおよびビデオアプリケーション、ゲームアプリケーション、資産管理アプリケーション、支払い関連のアプリケーションなどであってもよい。例示的に、当該端末11は、携帯電話、タブレットコンピュータ、ラップトップコンピュータ、デスクトップコンピュータなどであってもよい。図1に示されるように、当該端末11は、端末111および端末112を含み、本願実施例では、2つの端末を含む端末11を例にとって説明するが、実際の適用では、より多いまたはより少ない端末を含み得る。
サーバ12には、人工知能モデルが格納され、当該人工知能モデルは、マルチメディア素材の入力を受け取り、第1出力結果を出力するために使用される。マルチメディア素材は、ネットワークコミュニティプラットフォームでの編集またはアップロードを通じて、端末によって生成された素材である。例えば、画像素材を人工知能モデルに入力して取得した画像識別の出力結果、または、オーディオ素材を人工知能モデルに入力して取得した、ボイスチェンジされたオーディオ出力結果などである。例示的に、当該サーバ12は、1つのサーバまたは複数のサーバから構成されるサーバクラスタであってもよく、当該サーバ12は、物理サーバまたはクラウドサーバであってもよく、本願は、サーバ12の特定の形式に対して限定しない。
端末11とサーバ12は、ネットワーク13を介して通信し、当該通信ネットワーク13は、有線ネットワークまたは無線ネットワークであり得る。
図2は、本願の一例示的な実施例で開示されるコンテンツ投稿方法のフローチャートであり、当該投稿方法を図1に示される実施環境に適用する場合、当該コンテンツ投稿方法は以下のステップを含む。
ステップ201において、端末が、マルチメディア素材および地理的位置情報を取得する。
例示的に、当該マルチメディア素材は、編集、ダウンロード、アップロード、撮影または記録を通じて端末が取得した素材である。当該マルチメディア素材が、編集、ダウンロード、アップロード、撮影または記録を通じて端末が取得した素材である場合、当該マルチメディア素材はオリジナル素材とも呼ばれる。例えば、端末は、マルチメディア素材として1セグメントのテキストを編集して生成したり、マルチメディア素材として1つの画像をアップロードしたり、マルチメディア素材として1セグメントのオーディオを記録したりすることができる。例示的に、当該マルチメディア素材は、画像素材、オーディオ素材、テキスト素材またはビデオ素材のうちの少なくとも1つを含んでもよい。
例示的に、当該地理的位置情報は、衛星測位法を介して端末が取得した情報であってもよいし、モバイル基地局測位法を介して端末が取得した情報であってもよいし、無線ネットワーク支援測位法を介して端末が取得した情報であってもよいし、アシスト全地球測位システム(AGPS:Assisted Global Positioning System)を介して端末が取得した情報であってもよいが、本願実施例はこれに対して限定しない。
ステップ202において、端末が、マルチメディア素材および地理的位置情報をサーバにアップロードする。
例示的に、端末は、マルチメディア素材を取得および送信してから、地理的位置情報を取得および送信してもよいし、地理的位置情報を取得および送信してから、マルチメディア素材を取得および送信してもよいし、マルチメディア素材および地理的位置情報を同時に取得および送信してもよい。
ステップ203において、サーバが、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信する。
ステップ204において、サーバが、マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得する。
例示的に、サーバが、受信したマルチメディア素材を当該人工知能モデルに入力して、第1出力結果を取得する。例示的に、当該第1出力結果は、サーバが、人工知能モデルに従ってマルチメディア素材に対して人工知能処理を実行した後に取得した処理結果のコンテンツを含むマルチメディアデータであってもよい。
例示的に、当該第1出力結果は、画像素材に対して画像識別を実行した後の画像識別結果、またはオーディオ素材に対してボイスチェンジを実行した後のボイスチェンジ結果、またはオーディオ素材に対してオーディオ識別を実行した後のオーディオ識別結果であってもよい。
ステップ205、サーバが、第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得する。
例示的に、第1出力結果と地理的位置情報を組み合わせ方法は、マップ内の地理的位置情報に対応する位置ポイントで、第1出力結果に対応するコンテンツを表示すること、地理的位置情報に対応する地理的領域を取得し、当該地理的領域における第1出力結果のタイプに対応する出力結果セットを決定し、当該出力結果セットの配列順番に従って第2出力結果を決定することのうちの少なくとも1つを含んでもよい。例示的に、当該出力結果セットは、人工知能モデルによって出力された少なくとも1つの出力結果を含んでもよい。例示的に、当該出力結果セットは、同じ人工知能モデルによって出力された複数の出力結果を含んでもよい。例示的に、当該出力結果セットはまた、異なる人工知能モデルによって出力された複数の出力結果を含んでもよい。例示的に、当該出力結果セットは、顔処理モデルによって出力された、公人aとの顔の類似度結果を含み、当該出力結果セットは、サウンド処理モデルによって出力された公人aとの音声の類似度結果も含み、顔の類似度結果および音声の類似度結果を配列して、当該出力結果セットの配列順番を取得する。
ステップ206において、サーバが、第1出力結果および第2出力結果を端末に送信する。
ステップ207において、端末が、サーバによって送信された第1出力結果および第2出力結果を受信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものである。
ステップ208において、端末が、ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示する。
例示的に、端末は、編集ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示でき、当該編集ユーザインターフェースは、編集ボックス、第1出力結果、第2出力結果、送信制御部を含み、ユーザは、テキスト編集ボックスでテキストを編集できる。端末はまた、表示ユーザインターフェースでサーバによって送信された第1出力結果および第2出力結果を表示でき、当該表示ユーザインターフェースは、第1出力結果、第2出力結果および共有制御部を含む。
ステップ209において、ユーザコンテンツを生成する。
例示的に、当該ユーザコンテンツは、当該第1出力結果および第2出力結果を含んでもよい。例示的に、当該ユーザコンテンツが、ネットワークコミュニティプラットフォームでの投稿に使用されてもよい。
例示的に、端末が編集ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、ユーザが自分で編集したテキストコンテンツ、第1出力結果および第2出力結果はユーザコンテンツである。例示的に、当該ユーザコンテンツはまた、他のユーザによって編集、ダウンロード、アップロード、撮影または記録されたコンテンツを含み得る。例示的に、端末が表示ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、共有制御部がユーザによってトリガされると、端末は編集ユーザインターフェースを表示し、ユーザが編集ユーザインターフェースで編集したテキストコンテンツ、第1出力結果および第2出力結果はユーザコンテンツである。例示的に、当該ユーザコンテンツはまた、ユーザによって編集、ダウンロード、アップロード、撮影または記録された他のコンテンツを含み得る。
ステップ210において、端末が、ユーザコンテンツをサーバに送信する。
例示的に、端末が編集ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、送信制御部がユーザによってタッチされると、端末はユーザコンテンツをサーバに送信する。端末が表示ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、共有制御部がユーザによってトリガされると、端末は編集ユーザインターフェースを表示し、編集ユーザインターフェースは送信制御部を含み、ユーザは、送信制御部をタッチすることによってユーザコンテンツをサーバに送信できる。
ステップ211において、サーバが、端末によって送信されたユーザコンテンツをネットワークコミュニティプラットフォームに投稿する。
例示的に、サーバがユーザコンテンツをネットワークコミュニティプラットフォームに投稿した後、上述の端末または他の端末は、当該ネットワークコミュニティプラットフォームで当該ユーザコンテンツを閲覧できる。
まとめると、本実施例で開示されたコンテンツ投稿方法において、マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って、コンテンツを生成してネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善し、当該ネットワークコミュニティプラットフォームの調性を改善するため、ネットワークコミュニティプラットフォームの特定のサークルで、ユーザによって投稿されたコンテンツが、このサークルにおける対応するトピックの要件によりマッチングし、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
代替実施例において、第2出力結果は、同じタイプの出力結果セットにおける第1出力結果の配列順番に従って決定される。
図3は、本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートであり、当該投稿方法を図1に示される実施環境に適用する場合、当該コンテンツ投稿方法は以下のステップを含む。
ステップ301において、端末が、マルチメディア素材および地理的位置情報を取得する。
ステップ302において、端末が、マルチメディア素材および地理的位置情報をサーバにアップロードする。
例示的に、マルチメディア素材は画像素材である場合、ユーザは、端末のローカルアルバムでアップロードする画像素材を選択し、アップロード制御部をクリックしてアップロードしてもよいし、端末のカメラを利用して画像素材を撮影し、画像素材を取得した後に、アップロード制御部をクリックしてアップロードしてもよい。マルチメディア素材がオーディオ素材である場合、ユーザは、端末のローカルレコーディングライブラリでアップロードするオーディオ素材を選択し、アップロード制御部をクリックしてアップロードしてもよいし、端末のマイクを利用してオーディオ素材を録音し、オーディオ素材を取得した後に、アップロード制御部をクリックしてアップロードしてもよい。
ステップ303において、サーバが、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信する。
ステップ304において、サーバが、マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得する。
例示的に、サーバが、受信したマルチメディア素材を当該人工知能モデルに入力して、第1出力結果を取得してもよい。当該第1出力結果は、画像素材に対して画像識別を実行した後の画像識別結果、またはオーディオ素材に対してボイスチェンジを実行した後のボイスチェンジ結果、またはオーディオ素材に対してオーディオ識別を実行した後のオーディオ識別結果であってもよい。
ステップ305において、サーバが、地理的位置情報に対応する地理的領域を取得する。
例示的に、地理的位置情報は1つの地理的領域に対応し、当該地理的領域は当該地理的位置情報に対応する位置ポイントを含み、当該地理的領域は、プリセットされた地理的領域であってもよい。つまり、マップは複数の地理的領域に分割され、地理的位置情報に従って、マップでの当該地理的位置情報に対応する地理的領域を決定してもよい。例示的に、地理的領域「南山区」は位置ポイントAを含み、サーバが取得した地理的位置情報が位置ポイントAの地理的位置情報である場合、サーバは、当該位置ポイントAに対応する地理的領域「南山区」を取得する。
ステップ306において、サーバが、地理的領域における第1出力結果のタイプに対応する出力結果セットを取得する。
例示的に、出力結果セットは、人工知能モデルによって出力された少なくとも1つの出力結果を含み、且つ当該人工知能モデルと第1出力結果に対応する人工知能モデルは同じモデルであってもよく、つまり、当該出力結果セットは、同じ人工知能モデルによって出力された少なくとも1つの出力結果を含んでもよい。
ステップ307において、出力結果セットの配列順番に従って、第2出力結果を決定する。
例示的に、当該第2出力結果は、同じタイプ出力結果セットにおける第1出力結果のランキング情報を含んでもよい。
ステップ308において、サーバが、第1出力結果および第2出力結果を端末に送信する。
ステップ309において、端末が、サーバによって送信された第1出力結果および第2出力結果を受信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであってもよい。
ステップ310において、端末が、ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示する。
例示的に、端末は、編集ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示でき、当該編集ユーザインターフェースは、編集ボックス、第1出力結果、第2出力結果、送信制御部を含み、ユーザは、テキスト編集ボックスでテキストを編集できる。端末はまた、表示ユーザインターフェースでサーバによって送信された第1出力結果および第2出力結果を表示でき、当該表示ユーザインターフェースは、第1出力結果、第2出力結果および共有制御部を含む。
ステップ311において、ユーザコンテンツを生成する。
例示的に、当該ユーザコンテンツは、当該第1出力結果および第2出力結果を含んでもよい。例示的に、当該ユーザコンテンツは、ネットワークコミュニティプラットフォームでの投稿に使用されてもよい。
ステップ312において、端末が、ユーザコンテンツをサーバに送信する。
例示的に、端末が編集ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、送信制御部がユーザによってタッチされると、端末はコンテンツをサーバに送信する。端末が表示ユーザインターフェースで第1出力結果および第2出力結果を表示する場合、共有制御部がユーザによってトリガされると、端末は編集ユーザインターフェースを表示し、編集ユーザインターフェースは送信制御部を含み、ユーザは、送信制御部をタッチすることによってコンテンツをサーバに送信できる。
ステップ313において、サーバが、端末によって送信されたユーザコンテンツをネットワークコミュニティプラットフォームに投稿する。
例示的に、サーバがユーザコンテンツをネットワークコミュニティプラットフォームに投稿した後、上述の端末または他の端末は、当該ネットワークコミュニティプラットフォームで当該ユーザコンテンツを閲覧できる。
まとめると、本実施例で開示されたコンテンツ投稿方法において、マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って、コンテンツを生成してネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善し、ネットワークコミュニティプラットフォームにテーマを含むいくつかのサークルが含まれている場合、当該ネットワークコミュニティプラットフォームの調性を改善するため、ネットワークコミュニティプラットフォームの特定のサークルで、ユーザによって投稿されたコンテンツが、このサークルにおける対応するトピックの要件によりマッチングし、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。調性は、サークルに投稿されたコンテンツとテーマの関連性を指す。
本実施で開示されるコンテンツ投稿方法において、同じタイプの出力結果セットを取得し、同じタイプの出力結果セットにおける第1出力結果の配列順番に従って第2出力結果を決定することにより、ユーザは、第1の出力結果および第2の出力結果の楽しみを直感的に感じることができ、第1の出力結果および第2の出力結果をネットワークコミュニティプラットフォームに投稿することができる。
代替実施例において、マルチメディア素材は、画像素材であってもよいし、オーディオ素材であってもよい。
まず、マルチメディア素材が画像素材である場合について例示的に説明する。図4は、本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートであり、当該投稿方法を図1に示される実施環境に適用する場合、当該コンテンツ投稿方法は以下のステップを含む。
ステップ401において、マルチメディア素材および地理的位置情報を取得する。
例示的に、当該マルチメディア素材は、編集、アップロードまたは記録を通じて端末によって取得した素材であってもよい。本実施例では、説明のための例として、当該マルチメディア素材が画像素材である場合について説明する。
例示的に、当該地理的位置情報は、衛星測位法を介して端末が取得した情報であってもよいし、モバイル基地局測位法を介して端末が取得した情報であってもよいし、無線ネットワーク支援測位法を介して端末が取得した情報であってもよいし、端末が全地球測位システムに対する補助を介して取得した情報であってもよいが、本願実施例はこれに対して限定しない。
ステップ402、マルチメディア素材および地理的位置情報をサーバにアップロードする。
例示的に、マルチメディア素材は画像素材である場合、ユーザは、端末のローカルでアップロードする画像素材を選択し、アップロード制御部をクリックしてアップロードすることができる。ユーザはまた、端末のカメラを利用して画像素材を撮影し、画像素材を取得した後に、アップロード制御部をクリックしてアップロードすることができる。
例示的に、図5に示されるように、ユーザインターフェース51において、ユーザは、「写真」オプションを選択して写真をアップロードし、端末でユーザインターフェース52、即ちローカル画像を選択してアップロードするためのユーザインターフェースを表示する。ユーザが当該ユーザインターフェース52で、画像素材を選択してアップロードした後、端末は、選択された画像素材と地理的位置情報をサーバにアップロードする。
ステップ403において、サーバが、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信する。
ステップ404において、サーバが、画像素材に顔領域が含まれているかどうかを検出する。
サーバは、画像素材を受信した後、当該画像素材に顔領域が含まれているかどうかを検出する。
例示的に、サーバは、顔認識テクノロジ(Face Recognition Technology)を呼び出して、画像素材に顔領域が含まれているかどうかを検出してもよい。例示的に、以下の4つの顔認識方法を使用して、画像素材に顔領域が含まれているかどうかを検出できる。
最初に、テンプレート参照法において、サーバに1つまたは複数の顔テンプレートを事前に記憶し、画像素材の一部またはすべての領域を顔テンプレートとマッチングし、取得したマッチング程度に従って、画像素材に顔領域が含まれているかどうかを判断する。
次に、顔ルール法において、顔には特定の構造的分布特性があるため、顔テンプレートの特徴を抽出し、対応するルールを生成することにより、生成したルールを使用して、画像素材に顔領域が含まれているかどうかを判断する。
第3に、サンプル学習法において、ニューラルネットワークを通じて画像素材を学習し、画像素材の画像要素を分類し、画像素材に顔領域が含まれているかどうかを判断する。
第4に、肌色シミュレーション法において、顔の肌色は色空間に比較的集中しているため、顔の肌色の分布ルールに従って、画像要素に顔画像が含まれているかどうかを判断する。
ステップ405において、画像素材に顔領域が含まれている場合、顔領域を顔処理モデルに入力して、第1出力結果を取得する。
例示的に、当該顔処理モデルは、顔領域に対して顔の類似度検出および顔の分析の少なくとも1つの処理を実行するために使用される。例示的に、当該顔処理モデルはまた、顔領域に対して顔識別を実行するために使用される。
顔の類似度検出とは、2つ以上の顔領域間の類似度検出することである。
顔の特徴分析とは、顔の特徴に対して分析することであって、顔の特徴は、性別、年齢、ムードタイプ、魅力値、メガネを着用しているかどうか、ジュエリを着用しているかどうか、および帽子を着用しているかどうかのうちの少なくとも1つを含む。
顔識別とは、顔領域を事前に記憶した顔とマッチングして、当該事前に記憶した顔に対応する顔情報を取得する。ここで、顔情報は、名前、性別、年齢、魅力値、身元、職業のうちの少なくとも1つを含む。
ステップ406において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ407において、サーバが、地理的領域における第1出力結果のタイプに対応する同じタイプの出力結果セットを取得する。
ステップ408において、同じタイプの出力結果セットにおける第1出力結果の配列順番に従って、第2出力結果を決定する。
例示的に、当該第2出力結果は、同じタイプ出力結果セットにおける第1出力結果のランキング情報を含む。
ステップ409において、サーバが、第1出力結果および第2出力結果を端末に送信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものである。
ステップ410において、端末が、サーバによって送信された第1出力結果および第2出力結果を受信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものである。
例示的に、当該第2出力結果は、地理的領域における第1出力結果のランキング情報を含み、当該ランキング情報は、サーバが地理的位置情報に対応する地理的領域を取得した後、地理的領域における第1出力結果に対応する同じタイプの出力結果セットを取得し、同じタイプの出力結果セットにおける第1出力結果の配列順番に従って決定したものであり、同じタイプの出力結果セットは、他のマルチメディア素材を人工知能モデルに入力して取得した少なくとも1つの出力結果を含む。
ステップ411において、端末が、ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示する。
例示的に、端末は、編集ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示でき、当該編集ユーザインターフェースは、編集ボックス、第1出力結果、第2出力結果、送信制御部を含み、ユーザは、テキスト編集ボックスでテキストを編集できる。端末はまた、表示ユーザインターフェースでサーバによって送信された第1出力結果および第2出力結果を表示でき、当該表示ユーザインターフェースは、第1出力結果、第2出力結果および共有制御部を含む。
図6に示されるように、端末が画像素材および地理的位置情報を正常にアップロードした後、サーバは、第1出力結果および第2出力結果を返し、ユーザインターフェース61で表示する。第1出力結果は、ユーザによってアップロードされた画像素材の顔領域と顔サンプル「シンディ(Cindy)」の類似度「78%」であり、第2出力結果は、「南山区の2番名のシンディ」である。ユーザは、第1出力結果および第2出力結果を選択した後、ユーザインターフェース62でテキスト編集を実行し、ユーザコンテンツを生成する。
ステップ412において、ユーザコンテンツを生成する。
例示的に、当該ユーザコンテンツは、当該第1出力結果および第2出力結果を含んでもよい。例示的に、当該ユーザコンテンツは、ネットワークコミュニティプラットフォームでの投稿に使用されてもよい。
ステップ413において、端末が、ユーザコンテンツをサーバに送信する。
ステップ414において、サーバが、端末によって送信されたユーザコンテンツをネットワークコミュニティプラットフォームに投稿する。
例示的に、サーバがユーザコンテンツをネットワークコミュニティプラットフォームに投稿した後、上述の端末または他の端末は、当該ネットワークコミュニティプラットフォームで当該ユーザコンテンツを閲覧できる。
まとめると、本実施例で開示されたコンテンツ投稿方法において、マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って、コンテンツを生成してネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善し、当該ネットワークコミュニティプラットフォームの調性を改善するため、ネットワークコミュニティプラットフォームの特定のサークルで、ユーザによって投稿されたコンテンツが、このサークルにおける対応するトピックの要件によりマッチングし、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。調性は、サークルに投稿されたコンテンツとテーマの関連性を指す。
本実施例で開示されたコンテンツ投稿方法において、画像素材の顔領域を識別し、顔領域を顔処理モデルに入力することにより、画像素材に対して顔の類似度検出、顔の特徴分析および顔識別のうちの少なくとも1つの処理を実行できるため、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの楽しみを増加できる。
代替実施例において、当該顔処理モデルは顔マッチングモデルであってもよく、上述のステップ405ないしステップ408は、代わりに図7に示されるステップ4051ないしステップ4081として実施されてもよい。
ステップ4051において、画像素材に顔領域が含まれている場合、顔領域を顔マッチングモデルに入力して、第1出力結果を取得する。
例示的に、当該第1出力結果は、顔領域と顔サンプルの間の第1類似度を含んでもよい。
例示的に、サーバは、顔領域および顔サンプルを顔マッチングモデルに入力することができ、当該顔マッチングモデルは、1つまたは複数のニューラルネットワークで構成されることができ、当該1つまたは複数のニューラルネットワークを使用して、顔領域および顔サンプルの特徴を抽出およびマッチングして、顔領域と顔サンプルの間の第1類似度を取得する。
当該第1出力結果は、顔領域と顔サンプルの間の第1類似度を含む。例示的に、顔サンプルは、サーバに事前に記憶された1つまたは複数の顔画像であってもよく、つまり、第1出力結果は、複数の第1類似度を含むことができる。例示的に、顔サンプルは、映画スター、歌手、スポーツスター、モデル、有名企業の代表者などの有名人の顔画像であってもよい。例示的に、顔サンプルは、ユーザによって選択されることができ、ユーザが顔サンプルを選択した後、サーバは、顔領域および選択された顔領域サンプルを顔マッチングモデルに入力して、第1類似度を取得する。
例示的に、顔領域に対して取得された第1出力結果は、当該顔領域と顔サンプルAの間の第1類似度が78%あり、顔領域と顔サンプルBの間の第1類似度が55%であるという情報を含む。
例示的に、サーバはまた、顔領域と顔サンプルの間の第1類似度を、降順で配列できる。例示的に、当該顔領域と顔サンプルAの間の第1類似度が78%であり、当該顔領域と顔サンプルBの間の第1類似度が55%であり、当該顔領域と顔サンプルCの間の第1類似度が90%である場合、顔領域と顔サンプルの間の第1類似度を、顔サンプルC(90%)、顔サンプルA(78%)、顔サンプルB(55%)の降順で配列する。
例示的に、画像素材が複数の顔領域を含む場合、上述の複数の顔領域をそれぞれ顔マッチングモデルに入力し、各顔領域に対応する第1類似度を取得し、各顔領域に対応する第1類似度は、同じまたは同じセット内の顔サンプルとの間の類似度であってもよいし、異なる顔サンプルとの間の類似度であってもよい。
例示的に、検出到画像素材に顔領域aおよび顔領域bが含まれていることを検出した場合、第1出力結果は、顔領域aと顔サンプルAの間の第1類似度が80%であり、顔領域aと顔サンプルBの間の第1類似度が50%であり、顔領域bと顔サンプルAの間の第1類似度が88%であり、顔領域bと顔サンプルDの間の第1類似度が70%であるという情報を含む。
ステップ4061において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ4071において、サーバが、地理的領域における第1出力結果に対応する第1類似度セットを取得する。
例示的に、当該第1類似度セットは、他の顔領域と顔サンプルの間の少なくとも1つの類似度を含み、他の顔領域は、当該地理的領域にある端末によってアップロードされたものである。
例示的に、当該第1類似度セットの顔領域は、第1類似度に従って降順で配列されてもよい。
例示的に、南山区にある端末によってアップロードされた顔領域と、顔サンプル「シンディ(Cindy)」の間の類似度セットは、以下の表1の通りである。

Figure 0007004944000001
ステップ4081において、地理的領域および第1類似度セットの配列順番に従って、顔領域の類似度ランキング情報を第2出力結果として生成する。
例示的に、サーバは、地理的領域の名前、類似度セットにおける第1類似度の配列順番および顔サンプルの名前を繋ぎ合わせて、類似度ランキング情報を取得してもよい。
例示的に、表1を参照すると、第1類似度が、顔領域bと顔サンプル「シンディ(Cindy)」の間の類似度である場合、当該類似度が88%であり、且つ類似度セットにおける配列順番で2番目にランクされている場合、当該顔領域bの類似度ランキング情報は、「南山区の2番目のシンディ」である。
まとめると、本実施例で開示されたコンテンツ投稿方法において、端末によって送信された画像要素における顔領域に対して顔の類似度検出を実行することにより、顔領域とスターなどの有名人の間の類似度を計算し、計算結果を端末に送信でき、端末によって当該類似度をコンテンツに追加して送信できるため、ネットワークコミュニティプラットフォームで投稿するUGCの楽しみを増加できる。
代替実施例において、上述の顔処理モデルは顔分析モデルであってもよく、上述のステップ405ないしステップ408は、代わりに図8に示されるステップ4052ないしステップ4082として実施されてもよい。
ステップ4052において、画像素材に顔領域が含まれている場合、顔領域を顔分析モデルに入力して、第1出力結果を取得する。
例示的に、当該第1出力結果は顔の魅力値を含んでもよい。
例示的に、当該顔分析モデルは、顔領域の顔の特徴を分析するために使用されてもよい。例示的に、当該第1出力結果は、当該顔領域に係る性別、年齢、ムードタイプ、魅力値、メガネを着用しているかどうか、ジュエリを着用しているかどうか、および帽子を着用しているかどうかのうちの少なくとも1つ特徴を含む。
例示的に、顔分析モデルは、1つまたは複数のニューラルネットワークを含み、当該1つまたは複数のニューラルネットワークを使用して、顔領域の特徴を抽出して、当該顔領域に係る上述の少なくとも1つの顔の特徴を取得する。
ステップ4062において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ4072において、地理的領域における第1出力結果に対応する顔の魅力値セットを取得する。
例示的に、当該魅力値セットは、他の顔領域の少なくとも1つの魅力値を含んでもよく、他の顔領域は、当該地理的領域にある端末によってアップロードされたものである。
例示的に、当該顔の魅力値セットの顔領域は、魅力値に従って降順で配列されてもよい。
例示的に、南山区にある端末によってアップロードされた顔領域の魅力値セットは、以下の表2の通りである。

Figure 0007004944000002
ステップ4082において、地理的領域および顔の魅力値セットの配列順番に従って、顔領域の顔の魅力値のランキング情報を第2出力結果として生成する。
例示的に、サーバは、地理的領域の名前、顔の魅力値セットにおける顔の魅力値の配列順番および顔領域の性別情報を繋ぎ合わせて、顔の魅力値のランキング情報を取得できる。
例示的に、サーバはまた、識別して取得した性別に従って、魅力値セットの顔領域を分類できる。例えば、女性の性別の顔領域に従って、第1魅力値セットを取得し、男性の性別の顔領域に従って、第2魅力値セットを取得し、顔領域の性別に従って、第1魅力値セットまたは第2魅力値セットで、第2出力結果として当該顔領域の魅力値ランキング情報を決定する。
例示的に、表2を参照すると、当該表2を性別が女性の顔領域に対応する第1魅力値セット、且つ顔領域bの魅力値を例にとると、当該魅力値が88であり、且つ魅力値セットにおける配列順番で2番目にランクされている場合、当該顔領域bの顔の魅力値のランキング情報、「南山区の2番目の魅力的な女性」である。
まとめると、本実施例で開示されたコンテンツ投稿方法において、端末によってアップロードされた画像素材における顔領域に対して顔分析を実行し、魅力値ランキング情報を端末に送信することにより、ネットワークコミュニティプラットフォームで投稿するコンテンツの楽しみを増加できる。
上述の図7および図8に示されるコンテンツ投稿方法は、同時に実現されてもよいし、独立した解決策として別個に実現されてもよいが、本願実施例はこれに対して限定しないことを留意されたい。
次に、マルチメディア素材がオーディオ素材である場合について説明する。図9は、本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートであり、当該投稿方法を図1に示される実施環境に適用する場合、当該コンテンツ投稿方法は以下のステップを含む。
ステップ901において、端末が、マルチメディア素材および地理的位置情報を取得する。
例示的に、当該マルチメディア素材は、編集、アップロード、撮影または記録を通じて端末によって取得した素材であってもよい。例えば、マルチメディア素材として、記録を通じて端末によって1セグメントのオーディオ情報を生成する。
例示的に、当該地理的位置情報は、衛星測位法を介して端末が取得した情報であってもよいし、モバイル基地局測位法を介して端末が取得した情報であってもよいし、無線ネットワーク支援測位法を介して端末が取得した情報であってもよいし、AGPSを介して端末が取得した情報であってもよいが、本願実施例はこれに対して限定しない。
ステップ902において、端末が、マルチメディア素材および地理的位置情報をサーバにアップロードする。
ステップ903において、サーバが、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信する。
例示的に、サーバは、オーディオのみをアップロードできるように制限するなど、端末によってアップロードされるコンテンツを制限できる。
端末は、ネットワークコミュニティプラットフォームでオーディオを記録し、記録したオーディオをオーディオ素材としてアップロードできる。端末はまた、オーディオ素材として、ローカルオーディオを選択してアップロードできる。
ステップ904において、サーバが、オーディオ素材をサウンド処理モデルに入力して、第1出力結果を取得する。
例示的に、当該サウンド処理モデルは、端末によって送信されたサウンド処理オプションに従って決定されてもよい。例示的に、端末はサウンド処理オプションをサーバに送信し、サーバは、サウンド処理オプションに対応するサウンド処理モデルを取得する。
ステップ905において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ906において、サーバが、地理的領域における第1出力結果のタイプに対応する同じタイプの出力結果セットを取得する。
例示的に、出力結果セットは、人工知能モデルによって出力された少なくとも1つの出力結果を含み、且つ当該人工知能モデルと第1出力結果に対応する人工知能モデルは同じモデルであってもよい。
ステップ907において、同じタイプの出力結果セットにおける第1出力結果の配列順番に従って、第2出力結果を決定する。
ステップ908において、サーバが、第1出力結果および第2出力結果を端末に送信する。
ステップ909において、端末が、サーバによって送信された第1出力結果および第2出力結果を受信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものである。
例示的に、第1出力結果は、サーバがオーディオ素材をサウンド処理モデルに入力して取得したものであってもよく、サウンド処理モデルは、オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用される。
ステップ910において、端末が、ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示する。
例示的に、端末は、編集ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示してもよく、当該編集ユーザインターフェースは、編集ボックス、第1出力結果、第2出力結果、送信制御部を含み、ユーザは、テキスト編集ボックスでテキストを編集できる。端末はまた、表示ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示してもよく、当該表示ユーザインターフェースは、第1出力結果、第2出力結果および共有制御部を含む。
ステップ911において、ユーザコンテンツを生成する。
例示的に、当該ユーザコンテンツは、当該第1出力結果および第2出力結果を含んでもよい。例示的に、当該ユーザコンテンツは、ネットワークコミュニティプラットフォームでの投稿に使用されてもよい。
ステップ912において、端末が、ユーザコンテンツをサーバに送信する。
ステップ913において、サーバが、端末によって送信されたコンテンツをネットワークコミュニティプラットフォームに投稿する。
例示的に、サーバがコンテンツをネットワークコミュニティプラットフォームに投稿した後、上述の端末または他の端末は、当該ネットワークコミュニティプラットフォームで当該コンテンツを閲覧できる。
まとめると、本実施例で開示されたコンテンツ投稿方法において、マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って、コンテンツを生成してネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善し、当該ネットワークコミュニティプラットフォームの調性を改善するため、ネットワークコミュニティプラットフォームの特定のサークルで、ユーザによって投稿されたコンテンツが、このサークルにおける対応するトピックの要件によりマッチングし、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
本実施例で開示されたコンテンツ投稿方法において、オーディオ素材に対して様々な人工知能モデルを提供し、オーディオ素材のコンテンツの楽しみを増加し、さらにネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
代替実施例において、上述のサウンド処理モデルはオーディオのボイスチェンジモデルであってもよく、上述のステップ904ないしステップ907は、代わりに図10に示されるステップ9041ないしステップ9071として実施されてもよい。
ステップ9041において、オーディオ素材をオーディオのボイスチェンジモデルに入力して、オーディオのボイスチェンジ結果を取得する。
例示的に、当該オーディオのボイスチェンジモデルは、1つまたは複数のニューラルネットワークで構成され、且つ、当該オーディオのボイスチェンジモデルは、複数の異なるオーディオのボイスチェンジモデルに分割でき、各オーディオのボイスチェンジモデルは、オーディオ素材を対応する効果音にボイスチェンジするために使用される。例えば、オーディオのボイスチェンジモデル「トランスフォーマ」は、オーディオ素材をトランスフォーマの効果音にボイスチェンジするために使用され、オーディオのボイスチェンジモデル「女の子」は、オーディオ素材を女の子の効果音にボイスチェンジするために使用される。
例示的に、サーバは、オーディオのボイスチェンジモデルを通じてオーディオ素材をボイスチェンジした後、当該オーディオのボイスチェンジ結果のスコアも計算でき、当該スコアは、オーディオのボイスチェンジ結果と、オーディオのボイスチェンジモデルに対応する標準オーディオの間の類似度を計算して取得したものであってもよい。例示的に、オーディオのボイスチェンジモデル「トランスフォーマ」が、オーディオ素材をトランスフォーマの効果音に変更した後、サーバにはまた、映画「トランスフォーマ」のトランスフォーマのラインのオーディオが記憶され、当該オーディオのボイスチェンジ結果と当該ラインのオーディオの間のオーディオ類似度を計算して、当該オーディオのボイスチェンジ結果のスコアを取得する。
ステップ9051において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ9061において、サーバが、地理的領域におけるオーディオのボイスチェンジ結果に対応するオーディオのボイスチェンジセットを取得する。
例示的に、当該オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含んでもよく、他のオーディオ素材は、当該地理的領域にある端末によってアップロードされたものである。
例示的に、当該オーディオのボイスチェンジセットにおけるオーディオ素材は、ボイスチェンジ結果のスコアに従って降順で配列されてもよい。
例示的に、南山区にある端末によってアップロードされたオーディオ素材が、オーディオのボイスチェンジモデル「トランスフォーマ」によってボイスチェンジされた後の、対応するオーディオのボイスチェンジセットは、以下の表3の通りである。

Figure 0007004944000003
ステップ9071において、地理的領域およびオーディオのボイスチェンジセットの配列順番に従って、オーディオ素材のボイスチェンジのランキング情報を第2出力結果として生成する。
例示的に、サーバは、地理的領域の名前、オーディオのボイスチェンジセットにおけるオーディオのボイスチェンジ結果の配列順番およびオーディオのボイスチェンジモデルの名前を繋ぎ合わせて、ボイスチェンジのランキング情報を取得してもよい。
例示的に、表3を参照すると、オーディオのボイスチェンジ結果がオーディオ素材bのボイスチェンジ結果である場合、当該オーディオのボイスチェンジ結果のスコアが88であり、且つオーディオのボイスチェンジセットにおける配列順番で2番目にランクされている場合、当該オーディオ素材bのボイスチェンジのランキング情報は、「南山区の2番目のトランスフォーマ」である。
まとめると、本実施例で開示されたコンテンツ投稿方法において、オーディオ素材をオーディオのボイスチェンジモデルに入力して、オーディオのボイスチェンジ結果を取得し、オーディオのボイスチェンジ結果と地理的位置情報を組み合わせて第2出力結果を取得することにより、コンテンツの楽しみを増加し、さらにネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
代替実施例において、上述のサウンド処理モデルはオーディオ検出モデルであってもよく、上述のステップ904ないしステップ907は、代わりに図11に示されるステップ9042ないしステップ9072として実施されてもよい。
ステップ9042において、オーディオ素材をオーディオ検出モデルに入力して、オーディオ素材とオーディオ素材サンプルの間の第2類似度を取得する。
当該オーディオ検出モデルは、オーディオ素材とオーディオ素材サンプルの間の第2類似度を計算するために使用される。
例示的に、サーバは、オーディオ素材およびオーディオ素材サンプルをオーディオ検出モデルに入力することができ、当該オーディオ検出モデルは、1つまたは複数のニューラルネットワークで構成されることができ、当該1つまたは複数のニューラルネットワークを使用して、オーディオ素材およびオーディオ素材サンプルの特徴を抽出およびマッチングして、オーディオ素材とオーディオ素材サンプルの間の第2類似度を取得する。
当該第1出力結果は、オーディオ素材とオーディオ素材サンプルの間の第2類似度を含む。例示的に、オーディオ素材サンプルは、サーバに事前に記憶された1つまたは複数のオーディオ素材であってもよく、つまり、第1出力結果は、複数の第2類似度を含むことができる。例示的に、オーディオ素材サンプルは、歌手のオーディオ素材、映画のキャラクタのオーディオ素材、アニメーションのキャラクタのオーディオ素材などのよく知られたオーディオであってもよい。
例示的に、オーディオ素材に対して取得した第2出力結果は、当該オーディオ素材とオーディオ素材サンプルAの間の第2類似度が78%であり、当該オーディオ素材とオーディオ素材サンプルBの間の第2類似度が55%であるという情報を含む。例示的に、サーバはまた、オーディオ素材とオーディオ素材サンプルの間の第2類似度を、降順で配列できる。
ステップ9052において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ9062において、サーバが、地理的領域における第2類似度に対応する第2類似度セットを取得する。
例示的に、当該第2類似度セットは、他のオーディオ素材とオーディオ素材サンプルの間の少なくとも1つの類似度を含んでもよく、他のオーディオ素材は、地理的領域にある端末によってアップロードされたものである。
例示的に、当該第2類似度セットのオーディオ素材は、第2類似度に従って降順で配列されてもよい。
例示的に、南山区にある端末によってアップロードされたオーディオ素材と、オーディオ素材サンプル「女の子」の間の第2類似度セットは、以下の表4の通りである。

Figure 0007004944000004
ステップ9072において、地理的領域および第2類似度セットの配列順番に従って、オーディオ類似度のランキング情報を第2出力結果として生成する。
例示的に、サーバは、地理的領域の名前、第2類似度セットにおける第2類似度のランキングおよびオーディオ素材サンプルの名前を繋ぎ合わせて、オーディオ類似度のランキング情報を取得してもよい。
例示的に、表4を参照すると、第2類似度が、オーディオ素材bとオーディオ素材サンプル「女の子」の間の類似度である場合、当該第2類似度が88%であり、且つ第2類似度セットにおける配列順番で2番目にランクされている場合、当該オーディオ素材bのオーディオ類似度のランキング情報は、「南山区の2番目の女の子」である。
まとめると、本実施例で開示されたコンテンツ投稿方法において、オーディオ素材をオーディオ検出モデルに入力して、第2類似度を取得し、第2類似度と地理的位置情報を組み合わせて第2出力結果を取得することにより、コンテンツの楽しみを増加し、さらにネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
代替実施例において、上述のサウンド処理モデルはオーディオサウンド特徴抽出モデルであってもよく、上述のステップ904ないしステップ907は、代わりに図12に示されるステップ9043ないしステップ9073として実施されてもよい。
ステップ9043において、オーディオ素材をオーディオサウンド特徴抽出モデルに入力して、オーディオ素材に対応する年齢情報を取得する。
当該オーディオサウンド特徴抽出モデルは、オーディオ素材の特徴を抽出するために使用される。
例示的に、サーバは、オーディオ素材をオーディオサウンド特徴抽出モデルに入力することができ、当該オーディオサウンド特徴抽出モデルは、1つまたは複数のニューラルネットワークで構成されることができ、当該1つまたは複数のニューラルネットワークを使用して、オーディオ素材の特徴を抽出して、オーディオ素材に対応する年齢情報を取得する。
例示的に、特徴抽出により、当該オーディオ素材のサウンドの強さ、サウンド認識度、サウンドの柔らかさなどの特徴も取得できる。
ステップ9053において、サーバが、地理的位置情報に対応する地理的領域を取得する。
ステップ9063において、サーバが、地理的領域における年齢情報に対応するオーディオ年齢セットを取得する。
例示的に、当該オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含んでもよく、他のオーディオ素材は、当該地理的領域にある端末によってアップロードされたものである。
例示的に、当該オーディオ年齢セットにおけるオーディオ素材は、年齢情報に従って昇順で配列されてもよい。
例示的に、南山区にある端末によってアップロードされた、オーディオ素材の年齢情報に対応するオーディオ年齢セットは、以下の表5の通りである。

Figure 0007004944000005
ステップ9073において、地理的領域、およびオーディオ年齢セットにおけるオーディオ素材に対応する年齢情報の配列順番に従って、年齢のランキング情報を第2出力結果として生成する。
例示的に、サーバは、地理的領域名前、オーディオ年齢セットにおけるオーディオ素材に対応する年齢情報の配列順番、およびオーディオ素材の性別情報を繋ぎ合わせて、年齢のランキング情報を取得してもよい。
例示的に、表5を参照すると、オーディオ素材に対応する年齢情報が、オーディオ素材bに対応する年齢情報である場合、当該年齢情報が14であり、且つオーディオ年齢セットにおける配列順番で2番目にランクされている場合、当該オーディオ素材bの年齢のランキング情報は、「南山区の2番目の若い女の子」である。
まとめると、本実施例で開示されたコンテンツ投稿方法において、オーディオ素材をオーディオサウンド特徴抽出モデルに入力して、オーディオ素材に対応する年齢情報を取得し、オーディオ素材に対応する年齢情報と地理的位置情報を組み合わせて第2出力結果を取得することにより、コンテンツの楽しみを増加し、さらにネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
上述の図10ないし図12に示される3つのコンテンツ投稿方法は、同時に実現されてもよいし、それらを2つ組み合わせて実現されてもよいし、独立した解決策として別個に実現されてもよいが、本願実施例はこれに対して限定しないことを留意されたい。
代替実施例において、端末はまた、コンテンツの識別子か表示されたマップを閲覧できる。図13は、本願の別の例示的な実施例で開示されるコンテンツ投稿方法のフローチャートであり、当該投稿方法を図1に示される実施環境に適用する場合、当該コンテンツ投稿方法は以下のステップを含む。
ステップ1301において、端末が、マルチメディア素材および地理的位置情報を取得する。
例示的に、当該マルチメディア素材は、編集、アップロードまたは記録を通じて端末によって取得した素材であってもよい。例えば、端末は、マルチメディア素材として1セグメントのテキストを編集したり、マルチメディア素材として1つの写真をアップロードしたり、マルチメディア素材として1セグメントのオーディオを記録したりすることができる。例示的に、当該マルチメディア素材は、画像素材、オーディオ素材、テキスト素材またはビデオ素材のうちの少なくとも1つを含む。
例示的に、当該地理的位置情報は、衛星測位法を介して端末が取得した情報であってもよいし、モバイル基地局測位法を介して端末が取得した情報であってもよいし、無線ネットワーク支援測位法を介して端末が取得した情報であってもよいし、AGPSを介して端末が取得した情報であってもよいが、本願実施例はこれに対して限定しない。
ステップ1302において、端末が、マルチメディア素材および地理的位置情報をサーバにアップロードする。
例示的に、マルチメディア素材は画像素材である場合、ユーザは、端末のローカルでアップロードする画像素材を選択し、アップロード制御部をクリックしてアップロードすることができる。ユーザはまた、端末のカメラを利用して画像素材を撮影し、画像素材を取得した後に、アップロード制御部をクリックしてアップロードすることができる。マルチメディア素材がオーディオ素材である場合、ユーザは、端末のローカルレコーディングライブラリでアップロードするオーディオ素材を選択し、アップロード制御部をクリックしてアップロードすることができる。ユーザはまた、端末のマイクを利用してオーディオ素材を録音し、オーディオ素材を取得した後に、アップロード制御部をクリックしてアップロードすることができる。
ステップ1303において、サーバが、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信する。
ステップ1304において、サーバが、マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得する。
例示的に、サーバは、受信したマルチメディア素材を当該人工知能モデルに入力して、第1出力結果を取得してもよい。当該第1出力結果は、画像素材に対して画像識別を実行した後の画像識別結果、またはオーディオ素材に対してボイスチェンジを実行した後のボイスチェンジ結果であってもよい。
ステップ1305において、サーバが、第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得する。
例示的に、第1出力結果と地理的位置情報を組み合わせ方法は、マップ内の、地理的位置情報に対応する位置ポイントで、第1出力結果に対応するコンテンツを表示すること、および地理的位置情報に対応する地理的領域を取得し、当該地理的領域における第1出力結果のタイプに対応する同じタイプの出力結果セットを取得することのうちの少なくとも1つを含んでもよい。例示的に、当該同じタイプの出力結果セットは、人工知能モデルによって出力された少なくとも1つの出力結果を含んでもよい。例示的に、当該同じタイプの出力結果セットは、同じ人工知能モデルによって出力された複数の出力結果を含んでもよい。
ステップ1306において、サーバが、第1出力結果および第2出力結果を端末に送信する。
ステップ1307において、端末が、サーバによって送信された第1出力結果および第2出力結果を受信する。
例示的に、当該第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力して取得したものであってもよく、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであってもよい。
ステップ1308において、端末が、ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示する。
例示的に、端末は、編集ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示でき、当該編集ユーザインターフェースは、編集ボックス、第1出力結果、第2出力結果、送信制御部を含み、ユーザは、テキスト編集ボックスでテキストを編集できる。端末はまた、表示ユーザインターフェースでサーバによって送信された第1出力結果および第2出力結果を表示でき、当該表示ユーザインターフェースは、第1出力結果、第2出力結果および共有制御部を含む。
ステップ1309において、ユーザコンテンツを生成する。
例示的に、当該ユーザコンテンツは、当該第1出力結果および第2出力結果を含んでもよい。例示的に、当該ユーザコンテンツは、ネットワークコミュニティプラットフォームでの投稿に使用されてもよい。
ステップ1310において、端末が、ユーザコンテンツをサーバに送信する。
ステップ1311において、サーバが、端末によって送信されたユーザコンテンツをネットワークコミュニティプラットフォームに投稿する。
例示的に、サーバがユーザコンテンツをネットワークコミュニティプラットフォームに投稿した後、上述の端末または他の端末は、当該ネットワークコミュニティプラットフォームで当該ユーザコンテンツを閲覧できる。
ステップ1312において、サーバが、マップで地理的位置情報に対応する位置ポイントを決定する。
例示的に、マップに、各地理的位置情報に対応する位置ポイントがあり、サーバは、端末の地理的位置情報を取得した後、マップで当該地理的位置情報に対応する位置ポイントを決定してもよい。
ステップ1313において、サーバが、ユーザコンテンツをマップ内の位置ポイントに関連付ける。
例示的に、ユーザコンテンツをマップ内の位置ポイントに関連付けることは、ターゲット端末を介してマップを閲覧するとき、当該位置ポイントで当該ユーザコンテンツを閲覧でき、または、当該ユーザコンテンツの識別子を確認できることであってもよい。ここで、当該ユーザコンテンツの識別子は、マップで表示されるフローティング識別子であり、当該フローティング識別子で表示されるコンテンツは、ユーザのアバタ、ユーザのニックネーム、ユーザのアイデンティティ(Identity、IDと略称)のうちの少なくとも1つを含む。例えば、マップで当該コンテンツを送信したユーザのアバタを表示する。
ステップ1314において、端末が、マップビュー要求をサーバに送信する。
当該端末は、上述の端末、即ちコンテンツを投稿する端末、および/または他の端末を含む。
当該マップビュー要求は、ユーザコンテンツに関連付けるマップのビューを要求するために使用される。
ステップ1315において、サーバが、端末によって送信されたマップビュー要求を受信する。
ステップ1316において、サーバが、マップビュー要求に従って、ユーザコンテンツに関連付けるマップを端末に送信する。
ステップ1317において、端末が、サーバによって送信されたマップを受信する。
ステップ1318において、ユーザインターフェースでマップを表示する。
例示的に、端末が、サーバによって送信された、ユーザコンテンツに関連付けるマップを受信した後、ユーザインターフェースで当該マップを表示し、当該マップで、当該ユーザコンテンツを送信したユーザのアバタなどのユーザコンテンツの識別子を表示してもよい。例示的に、図14に示された表示結果を参照すると、端末でユーザインターフェース1401を表示し、当該ユーザインターフェース1401は、上述のマップを含み、且つ、位置ポイント1402で当該コンテンツを送信したユーザのアバタを表示し、他の位置ポイントで他のコンテンツを投稿したユーザのアバタを表示し、即ちユーザのアバタを、マップ内の当該コンテンツの地理的位置ポイントに表示する。
ステップ1319において、識別子に対するタッチ信号を受信する。
ステップ1320において、タッチ信号に従って、ユーザインターフェースで、識別子に対応するユーザコンテンツを表示する。
例示的に、端末が識別子に対するタッチ信号を受信した後、当該タッチ信号に従って、ユーザインターフェースで、識別子に対応するコンテンツを表示してもよい。例示的に、端末が識別子に対するタッチ信号を受信した後、サーバから当該識別子に対応するコンテンツを取得し、ユーザインターフェースで当該コンテンツを表示してもよいし、端末が識別子に対するタッチ信号を受信した後、キャッシュされたコンテンツから当該識別子に対応するコンテンツ取得し、ユーザインターフェースで当該コンテンツを表示してもよい。例示的に、ユーザがユーザインターフェースで上述のユーザのアバタをクリックした後、当該アバタに対応するユーザによって投稿された、コンテンツの詳細を表示してもよい。
例示的に、図14を参照すると、ユーザがユーザインターフェース1401で位置ポイント1402のアバタをクリックした後、端末で表示ユーザインターフェース1403を表示し、当該ユーザインターフェース1403で、位置ポイント1402のアバタに対応するユーザによって、送信されたコンテンツを表示する。
上述のステップ1314ないしステップ1320は、ステップ1313の後、またはステップ1313の前のいつでも実行することができ、本願実施例は、ステップ1314ないしステップ1320の実行順番に対して限定しないことを留意されたい。
図13に示されるコンテンツ投稿方法は、上述の図1ないし図12に示されるコンテンツ投稿方法のいずれかと組み合わせて実現されてもよいし、独立した解決策として別個に実現されてもよいことを留意されたい。
まとめると、本実施例で開示されたコンテンツ投稿方法において、マルチメディア素材を人工知能モデルに入力して第1出力結果を取得し、第1出力結果と地理的位置情報を組み合わせて第2出力結果を取得し、第1出力結果および第2出力結果に従って、コンテンツを生成してネットワークコミュニティプラットフォームに送信することにより、ユーザがネットワークコミュニティプラットフォームで投稿するUGCの形式が増加し、ネットワークコミュニティプラットフォームでの対話を改善し、当該ネットワークコミュニティプラットフォームの調性を改善するため、ネットワークコミュニティプラットフォームの特定のサークルで、ユーザによって投稿されたコンテンツが、このサークルにおける対応するトピックの要件によりマッチングし、ネットワークコミュニティプラットフォームで投稿するコンテンツが単調すぎるという課題を解決する。
本実施例で開示されたコンテンツ投稿方法において、マップでユーザのアバタなどの識別子を表示することにより、ターゲット端末は、マップでユーザのアバタを選択して、マップ内の地理的位置ポイントで当該ユーザによって送信されたコンテンツを表示できるため、ネットワークコミュニティプラットフォームで投稿するコンテンツの楽しみを増加し、さらにネットワークコミュニティプラットフォームでの対話を改善する。
上述の図1ないし図13で説明したコンテンツ投稿方法において、説明のための例として、ユーザコンテンツが第1出力結果および第2出力結果を含むが、実際の適用では、ユーザコンテンツは、第1出力結果のみを含んでもよいし、第2出力結果のみを含んでもよいし、第1出力結果およびユーザが追加した他のコンテンツを含んでもよいし、第2出力結果およびユーザが追加した他のコンテンツを含んでもよいことを留意されたい。ユーザコンテンツの詳細は、ユーザが最終的に投稿のために選択したユーザコンテンツによって決定される。
図15は、本願の一例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図であり、図15に示されるように、当該コンテンツ投稿装置が、第1取得モジュール1510と、アップロードモジュール1520と、表示モジュール1530と、生成モジュール1540とを備える。
第1取得モジュール1510は、マルチメディア素材および地理的位置情報を取得するように構成される。
アップロードモジュール1520は、前記マルチメディア素材および前記地理的位置情報をサーバにアップロードするように構成される。
表示モジュール1530は、ユーザインターフェースで、前記サーバによって送信された第1出力結果および第2出力結果を表示するように構成され、前記第1出力結果は、前記サーバが前記マルチメディア素材を人工知能モデルに入力して取得したものであり、前記第2出力結果は、前記サーバが前記第1出力結果と前記地理的位置情報を組み合わせて取得したものである。
生成モジュール1540は、ユーザコンテンツを生成するように構成され、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含む。
代替実施例において、前記第2出力結果は、地理的領域における前記第1出力結果のランキング情報を含み、
前記ランキング情報は、前記サーバが前記地理的位置情報に対応する前記地理的領域を取得した後、地理的領域における前記第1出力結果のタイプに対応する出力結果セットを決定し、前記出力結果セットの配列順番に従って決定したものであり、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含む。
代替実施例において、前記マルチメディア素材は画像素材であり、前記画像素材は顔領域を含み、
前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
ここで、前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用される。
代替実施例において、前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含み、
前記第2出力結果は、顔の類似度ランキング情報を含み、
前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含む。
代替実施例において、前記第1出力結果は魅力値を含み、前記魅力値は、前記サーバが前記顔領域を顔分析モデルに入力して取得したものであり、
前記第2出力結果は、顔の魅力値のランキング情報を含み、
前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含む。
代替実施例において、前記マルチメディア素材はオーディオ素材であり、
前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
ここで、前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用される。
代替実施例において、前記第1出力結果は、オーディオのボイスチェンジ結果を含み、前記オーディオのボイスチェンジ結果は、前記サーバが前記オーディオ素材をオーディオのボイスチェンジモデルに入力して取得したものであり、
前記第2出力結果は、ボイスチェンジのランキング情報を含み、
前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含む。
代替実施例において、前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、前記オーディオ素材に対応する年齢情報は、前記サーバが前記オーディオ素材をサウンド特徴抽出モデルに入力した後に取得したものであり、
前記第2出力結果は、年齢のランキング情報を含み、
前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含む。
代替実施例において、前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を含み、前記第2類似度は、前記サーバが前記オーディオ素材をオーディオ検出モデルに入力した後に取得したものであり、
前記第2出力結果は、オーディオ類似度のランキング情報を含み、
前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含む。
代替実施例において、図16に示されるように、当該コンテンツ投稿装置が、
前記サーバにサウンド処理オプションを送信するように構成され第1送信モジュール1550をさらに備え、前記サウンド処理オプションは、前記サーバが前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように指示するために使用される。
代替実施例において、前記第1送信モジュール1550は、前記サーバにマップビュー要求を送信するようにさらに構成され、前記マップビュー要求は、前記ユーザコンテンツに関連付けるマップのビューを要求するために使用され、
前記コンテンツ投稿装置が、
前記サーバによって送信された前記マップを受信するように構成される第1受信モジュール1560をさらに備え、
前記表示モジュール1530は、さらに前記ユーザインターフェースで前記マップを表示するように構成され、前記マップ内の前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子が表示される。
代替実施例において、前記第1受信モジュール1560は、さらに前記識別子に対するタッチ信号を受信するように構成され、
前記表示モジュール1530は、前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示するようにさらに構成される。
図17は、本願の別の例示的な実施例で開示されるコンテンツ投稿装置の構造ブロック図であり、図17に示されるように、当該ンテンツ投稿装置が、第2受信モジュール1710と、入力モジュール1720と、結合モジュール1730と、第2送信モジュール1740とを備える。
第2受信モジュール1710は、端末によってアップロードされたマルチメディア素材および地理的位置情報を受信するように構成される。
入力モジュール1720は、前記マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得するように構成される。
結合モジュール1730は、前記第1出力結果と前記地理的位置情報を組み合わせて、第2出力結果を取得するように構成される。
第2送信モジュール1740は、前記第1出力結果および前記第2出力結果を前記端末に送信するように構成される。
前記第2受信モジュール1710は、前記ネットワークコミュニティプラットフォームを介して、前記端末によって送信されたユーザコンテンツを受信するようにさらに構成され、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含む。
代替実施例において、図18に示されるように、前記結合モジュール1730が、
前記地理的位置情報に対応する地理的領域を取得するように構成される取得ユニット1731と、
前記取得ユニット1731は、前記地理的領域における前記第1出力結果のタイプに対応する同じタイプの出力結果セットを取得するようにさらに構成され、前記同じタイプの出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含み、
前記同じタイプの出力結果セットの配列順番に従って、前記第2出力結果を決定するように構成される決定ユニット1732とを備える。
代替実施例において、前記マルチメディア素材は画像素材であり、
前記入力モジュール1720が、
前記画像素材に顔領域が含まれているかどうかを検出するように構成される検出ユニット1721と、
前記画像素材に前記顔領域が含まれている場合、前記顔領域を顔処理モデルに入力して、前記第1出力結果を取得するように構成される第1入力ユニット1722とを備え、
ここで、前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つ処理を実行するために使用される。
代替実施例において、前記画像素材に前記顔領域が含まれている場合、前記第1入力ユニット1722は、前記顔領域を顔マッチングモデルに入力して、前記第1出力結果を取得するようにさらに構成され、前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含む。
代替実施例において、前記同じタイプの出力結果セットは第1類似度セットを含み、
前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含み、前記他の顔領域は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記第1類似度セットの配列順番に従って、前記顔領域の類似度ランキング情報を前記第2出力結果として生成するようにさらに構成される。
代替実施例において、前記第1入力ユニット1722は、前記画像素材に前記顔領域が含まれている場合、前記顔領域を顔分析モデルに入力して、前記第1出力結果を取得するようにさらに構成され、前記第1出力結果は顔の魅力値を含む。
代替実施例において、前記同じタイプの出力結果セットは、顔の魅力値セットを含む。
前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含み、前記他の顔領域は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記顔の魅力値セットの配列順番に従って、生成前記顔領域的顔の魅力値のランキング情報を前記第2出力結果として生成するようにさらに構成される。
代替実施例において、前記マルチメディア素材はオーディオ素材を含み、
前記入力モジュール1720が、
前記オーディオ素材をサウンド処理モデルに入力して、前記第1出力結果を取得するように構成される第2入力ユニット1723を備え、
ここで、前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用される。
代替実施例において、前記第1出力結果は、オーディオのボイスチェンジ結果を含み、
前記第2入力ユニット1723は、前記オーディオ素材をオーディオのボイスチェンジモデルに入力して、前記オーディオのボイスチェンジ結果を取得するようにさらに構成される。
代替実施例において、前記同じタイプの出力結果セットは、オーディオのボイスチェンジセットを含み、
前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記オーディオのボイスチェンジセットの配列順番に従って、前記オーディオ素材のボイスチェンジのランキング情報を前記第2出力結果として生成するようにさらに構成される。
代替実施例において、前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間のオーディオ類似度を含み、
前記第2入力ユニット1723は、前記オーディオ素材をオーディオ検出モデルに入力して、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を取得するようにさらに構成される。
代替実施例において、前記同じタイプの出力結果セットは、第2類似度セットを含み、
前記第2類似度セットは、他の少なくとも1つのオーディオ素材とオーディオ素材サンプルの間の類似度を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記第2類似度セットの配列順番に従って、オーディオ類似度のランキング情報を前記第2出力結果として生成するようにさらに構成される。
代替実施例において、前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、
前記第2入力ユニット1723は、前記オーディオ素材をオーディオサウンド特徴抽出モデルに入力して、前記オーディオ素材に対応する年齢情報を取得するようにさらに構成される。
代替実施例において、前記同じタイプの出力結果セットは、オーディオ年齢セットを含み、
前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記オーディオ年齢セットの配列順番に従って、年齢のランキング情報を前記第2出力結果として生成するようにさらに構成される。
代替実施例において、前記第2受信モジュール1710は、前記ネットワークコミュニティプラットフォームを介して、前記端末によって送信されたサウンド処理オプションを受信するようにさらに構成され、
前記コンテンツ投稿装置が、
前記サウンド処理オプションに対応する前記サウンド処理モデルを取得するように構成される第2取得モジュール1750をさらに備える。
代替実施例において、前記コンテンツ投稿装置が、
マップで前記地理的位置情報に対応する位置ポイントを決定するように構成される決定モジュール1760と、
前記ユーザコンテンツを前記マップ内の前記位置ポイントに関連付けるように構成される関連付けモジュール1770とをさらに備え、
前記第2受信モジュール1710は、前記ネットワークコミュニティプラットフォームを介して、ターゲット端末によって送信されたマップビュー要求を受信するようにさらに構成され、
前記第2送信モジュール1740は、前記マップビュー要求に従って、前記ユーザコンテンツに関連付けられた前記マップを、前記ネットワークコミュニティプラットフォームを介して前記ターゲット端末に送信するようにさらに構成され、前記ターゲット端末は、前記端末および/または他の端末を含む。
図19を参照すると、本願の一例示的な実施例で開示されるコンピュータ機器の構造ブロック図を示す。当該コンピュータ機器が、プロセッサ1101と、メモリ1102と、ネットワークインタフェース1103とを備える。
ネットワークインタフェース1103は、バスまたは他の方式を介してプロセッサ1101に接続され、入力画像または画像サンプルを受信するために使用される。
プロセッサ1101は、中央処理装置(CPU:central processing unit)、ネットワークプロセッサ(NP:network processor)、またはCPUとNPの組み合わせであってもよい。プロセッサ1101は、ハードウェアチップをさらに含み得る。上述のハードウェアチップは、特定用途向け集積回路(ASIC:application-specific integrated circuit)、プログラマブルロジックデバイス(PLD:programmable logic device)、またはこれらの組み合わせであってもよい。上述のPLDは、複合プログラマブルロジックデバイス(CPLD:complex programmable logic device)、フィールドプログラマブルゲートアレイ(FPGA:field-programmable gate array)、ジェネリックアレイロジック(GAL:generic array logic)、またはこれらの任意の組み合わせであってもよい。プロセッサ1101は1つまたは複数であってもよい。
メモリ1102は、バスまたはバスまたは他の方式を介してプロセッサ1101に接続され、メモリ1102に1つまたは複数のプログラムが記憶され、上述の1つまたは複数のプログラムは、プロセッサ1101によって実行されるように構成され、上述の1つまたは複数のプログラムは、図2、図3、図4、図7ないし図13に係る実施例におけるコンテンツ投稿方法を実行するための命令を含む。メモリ1102は、揮発性メモリ(volatile memory)、不揮発性メモリ(non-volatile memory)、またはこれらの組み合わせであってもよい。揮発性メモリは、スタティックランダムアクセスメモリ(SRAM:Static andom access memory)、ダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)などのランダムアクセスメモリ(RAM:Random Access Memory)であってもよい。不揮発性メモリは、プログラム可能な読み取り専用メモリ(PROM:programmable read only memory、PROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROM:erasable programmable read only memory)、電気的に消去可能なプログラム可能な読み取り専用メモリ(EEPROM:electrically erasable programmable read-only memory)などの読み取り専用メモリ(ROM:read only memory image)であってもよい。不揮発性メモリは、フラッシュメモリ(flash memory)、または磁気テープ(magnetic tape)、フロッピーディスク(フロッピーディスク)、ハードディスクなどの磁気メモリであってもよい。不揮発性メモリは光ディスクであってもよい。
例示的に、上述のコンピュータ機器は、端末またはサーバであってもよい。
本願実施例では、コンピュータ読み取り可能な記憶媒体をさらに開示し、当該記憶媒体に、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、前記プロセッサ1101によってロードおよび実行されると、図2、図3、図4、図7ないし図13のいずれかに記載のコンテンツ投稿方法を実現する。
本願では、コンピュータプログラム製品を開示し、コンピュータプログラム製品がコンピュータで実行されると、コンピュータによって上述の各方法実施例で開示されたコンテンツ投稿方法を実行する。
当業者なら自明であるが、上述の実施例における各方法において、その全部又は一部のステップが、関連のハードウェアに、プログラムによる命令(コマンド)で、実行されることができる。当該プログラムがコンピュータ読取可能な記憶媒体に記憶されてもよい。当該記憶媒体は、上述の実施例のメモリに含まれるコンピュータ可読記憶媒体であってもよいし、端末に組み込まれていない、単独で存在し、コンピュータ可読記憶媒体であってもよい。当該コンピュータ読み取り可能な記憶媒体に、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、前記プロセッサによってロードおよび実行されると、図1ないし図13のいずれかに記載のコンテンツ投稿方法を実現する。
例示的に、当該コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、ソリッドステートハードディスク(SSD:Solid State Drives)または光ディスクなどを含み得る。ここで、ランダムアクセスメモリは、アールラム(RRAM(登録商標):resistance random access memory)、およびダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)を含み得る。上述の本願実施例の番号は、実施例の優劣を表すものではなく、説明の便宜を図るためのものである。
当業者は、前記実施例の全てまたは一部のステップは、ハードウェアによって具現され得るか、関連するハードウェアを完成するようにプログラムによって命令され得ることを理解することができ、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されることができ、上記に言及された記憶媒体は、読み取り専用メモリ、磁気ディスク、または光ディスクであり得る。
上記は本願の好ましい実施例に過ぎず、本願を限定することを意図するものではなく、本願の精神および原則内で行われるあらゆる修正、同等の置換、改善などは、本願の保護範囲に含まれるべきである。
1101 プロセッサ
1102 メモリ
1103 ネットワークインタフェース
1510 第1取得モジュール
1520 アップロードモジュール
1530 表示モジュール
1540 生成モジュール
1550 第1送信モジュール
1560 第1受信モジュール
1710 第2受信モジュール
1720 入力モジュール
1721 検出ユニット
1722 第1入力ユニット
1723 第2入力ユニット
1730 結合モジュール
1731 取得ユニット
1732 決定ユニット
1740 第2送信モジュール
1750 第2取得モジュール
1760 決定モジュール
1770 関連付けモジュール

Claims (28)

  1. 端末が実行する、コンテンツ投稿方法であって、
    マルチメディア素材および地理的位置情報を取得することと、
    前記マルチメディア素材および前記地理的位置情報をサーバにアップロードすることと、
    ユーザインターフェースに前記サーバによって送信された第1出力結果および第2出力結果を表示することであって、前記第1出力結果は、前記サーバが前記マルチメディア素材を人工知能モデルに入力した後に取得したものであり、前記第2出力結果は、前記サーバが取得した、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことと、
    ユーザコンテンツを生成することであって、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含むことを特徴とする、前記コンテンツ投稿方法。
  2. 記ランキング情報は、前記サーバが前記地理的位置情報に対応する前記地理的領域を取得した後、地理的領域における前記第1出力結果のタイプに対応する出力結果セットを決定し、前記出力結果セットの配列順番に従って決定したものであことを特徴とする、
    請求項1に記載のコンテンツ投稿方法。
  3. 前記マルチメディア素材は画像素材であり、前記画像素材は顔領域を含み、
    前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
    前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用されることを特徴とする、
    請求項2に記載のコンテンツ投稿方法。
  4. 前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含み、
    前記第2出力結果は、顔の類似度ランキング情報を含み、
    前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
    請求項3に記載のコンテンツ投稿方法。
  5. 前記第1出力結果は魅力値を含み、前記魅力値は、前記サーバが前記顔領域を顔分析モデルに入力して取得したものであり、
    前記第2出力結果は、顔の魅力値のランキング情報を含み、
    前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含むことを特徴とする、
    請求項3に記載のコンテンツ投稿方法。
  6. 前記マルチメディア素材はオーディオ素材であり、
    前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
    前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用されることを特徴とする、
    請求項2に記載のコンテンツ投稿方法。
  7. 前記第1出力結果は、オーディオのボイスチェンジ結果を含み、前記オーディオのボイスチェンジ結果は、前記サーバが前記オーディオ素材をオーディオのボイスチェンジモデルに入力した後に取得したものであり、
    前記第2出力結果は、ボイスチェンジのランキング情報を含み、
    前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含むことを特徴とする、
    請求項6に記載のコンテンツ投稿方法。
  8. 前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、前記オーディオ素材に対応する年齢情報は、前記サーバが前記オーディオ素材をサウンド特徴抽出モデルに入力した後に取得したものであり、
    前記第2出力結果は、年齢のランキング情報を含み、
    前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含むことを特徴とする、
    請求項6に記載のコンテンツ投稿方法。
  9. 前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を含み、前記第2類似度は、前記サーバが前記オーディオ素材をオーディオ検出モデルに入力した後に取得したものであり、
    前記第2出力結果は、オーディオ類似度のランキング情報を含み、
    前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
    請求項6に記載のコンテンツ投稿方法。
  10. 前記ユーザインターフェースで、前記サーバによって送信された第1出力結果および第2出力結果を表示する前に、前記コンテンツ投稿方法は、
    前記サーバにサウンド処理オプションを送信することをさらに含み、前記サウンド処理オプションは、前記サーバが前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように指示するために使用されることを特徴とする、
    請求項6ないし9のいずれか一項に記載のコンテンツ投稿方法。
  11. 前記コンテンツ投稿方法は、
    前記サーバにマップビュー要求を送信することであって、前記マップビュー要求は、前記ユーザコンテンツに関連付けるマップのビューを要求するために使用されることと、
    前記サーバによって送信された前記マップを受信することと、
    前記ユーザインターフェースで前記マップを表示することであって、前記マップ内の、前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子を表示することとをさらに含むことを特徴とする、
    請求項1ないし9のいずれか一項に記載のコンテンツ投稿方法。
  12. 前記ユーザインターフェースで前記マップを表示した後、前記コンテンツ投稿方法は、
    前記識別子に対するタッチ信号を受信することと、
    前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示することとをさらに含むことを特徴とする、
    請求項11に記載のコンテンツ投稿方法。
  13. コンテンツ投稿方法であって、
    サーバに適用され、
    端末によってアップロードされたマルチメディア素材および地理的位置情報を受信することと、
    前記マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得することと、
    前記第1出力結果と前記地理的位置情報を組み合わせて、第2出力結果を取得することと、
    前記第1出力結果および前記第2出力結果を前記端末に送信することと、
    ネットワークコミュニティプラットフォームを介して、前記端末によって送信されたユーザコンテンツを受信することであって、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含み、
    前記第2出力結果は、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことを特徴とする、前記コンテンツ投稿方法。
  14. コンテンツ投稿装置であって、
    1つまたは複数のプロセッサ、および
    メモリを備え、
    前記メモリに1つまたは複数のプログラムが記憶され、前記1つまたは複数のプログラムは、前記1つまたは複数のプロセッサによって実行されるように構成され、前記1つまたは複数のプログラムは、
    マルチメディア素材および地理的位置情報を取得し、
    前記マルチメディア素材および前記地理的位置情報をサーバにアップロードし、
    ユーザインターフェースで、前記サーバによって送信された第1出力結果および第2出力結果を表示し、前記第1出力結果は、前記サーバが前記マルチメディア素材を人工知能モデルに入力して取得したものであり、前記第2出力結果は、前記サーバが取得した、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含み
    コンテンツを生成する操作を実行するための命令を含み、前記コンテンツは、前記第1出力結果および前記第2出力結果を含むことを特徴とする、前記コンテンツ投稿装置。
  15. 記ランキング情報は、前記サーバが前記地理的位置情報に対応する前記地理的領域を取得した後、地理的領域における前記第1出力結果のタイプに対応する出力結果セットを決定し、前記出力結果セットの配列順番に従って決定したものであことを特徴とする、
    請求項14に記載のコンテンツ投稿装置。
  16. 前記マルチメディア素材は画像素材であり、前記画像素材は顔領域を含み、
    前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
    前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用されることを特徴とする、
    請求項15に記載のコンテンツ投稿装置。
  17. 前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含み、
    前記第2出力結果は、顔の類似度ランキング情報を含み、
    前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
    請求項16に記載のコンテンツ投稿装置。
  18. 前記第1出力結果は魅力値を含み、前記魅力値は、前記サーバが前記顔領域を顔分析モデルに入力して取得したものであり、
    前記第2出力結果は、顔の魅力値のランキング情報を含み、
    前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含むことを特徴とする、
    請求項16に記載のコンテンツ投稿装置。
  19. 前記マルチメディア素材はオーディオ素材であり、
    前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
    前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用されることを特徴とする、
    請求項15に記載のコンテンツ投稿装置。
  20. 前記第1出力結果は、オーディオのボイスチェンジ結果を含み、前記オーディオのボイスチェンジ結果は、前記サーバが前記オーディオ素材をオーディオのボイスチェンジモデルに入力して取得したものであり、
    前記第2出力結果は、ボイスチェンジのランキング情報を含み、
    前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含むことを特徴とする、
    請求項19に記載のコンテンツ投稿装置。
  21. 前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、前記オーディオ素材に対応する年齢情報は、前記サーバが前記オーディオ素材をサウンド特徴抽出モデルに入力した後に取得したものであり、
    前記第2出力結果は、年齢のランキング情報を含み、
    前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含むことを特徴とする、
    請求項19に記載のコンテンツ投稿装置。
  22. 前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を含み、前記第2類似度は、前記サーバが前記オーディオ素材をオーディオ検出モデルに入力した後に取得したものであり、
    前記第2出力結果は、オーディオ類似度のランキング情報を含み、
    前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
    請求項19に記載のコンテンツ投稿装置。
  23. 前記1つまたは複数のプログラムは、
    前記サーバにサウンド処理オプションを送信する操作を実行するための命令をさらに含み、前記サウンド処理オプションは、前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように前記サーバに指示するために使用されることを特徴とする、
    請求項19ないし22のいずれか一項に記載のコンテンツ投稿装置。
  24. 前記1つまたは複数のプログラムは、
    前記サーバにマップビュー要求を送信し、前記マップビュー要求は、ユーザコンテンツに関連付けるマップのビューを要求するために使用され、
    前記サーバによって送信された前記マップを受信し、
    前記ユーザインターフェースで前記マップを表示し、前記マップ内の前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子を表示する操作を実行するための命令をさらに含むことを特徴とする、
    請求項14ないし22のいずれか一項に記載のコンテンツ投稿装置。
  25. 前記1つまたは複数のプログラムは、
    前記識別子に対するタッチ信号を受信し、
    前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示する操作を実行するための命令をさらに含むことを特徴とする、
    請求項24に記載のコンテンツ投稿装置。
  26. コンテンツ投稿装置であって、
    1つまたは複数のプロセッサ、およびメモリを備え、
    前記メモリに1つまたは複数のプログラムが記憶され、前記1つまたは複数のプログラムは、前記1つまたは複数のプロセッサによって実行されるように構成され、前記1つまたは複数のプログラムは、
    端末によってアップロードされたマルチメディア素材および地理的位置情報を受信し、
    前記マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得し、
    前記第1出力結果と前記地理的位置情報を組み合わせて、第2出力結果を取得し、
    前記第1出力結果および前記第2出力結果を前記端末に送信し、
    前記端末がネットワークコミュニティプラットフォームを介して送信したユーザコンテンツを受信する操作を実行するための命令を含み、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含み、
    前記第2出力結果は、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことを特徴とする、前記コンテンツ投稿装置。
  27. コンピュータ機器であって、
    プロセッサ、およびメモリを備え、
    前記メモリに、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、前記プロセッサによってロードおよび実行されると、請求項1ないし13のいずれか一項に記載のコンテンツ投稿方法を実現することを特徴とする、前記コンピュータ機器。
  28. コンピュータ読み取り可能な記憶媒体であって、前記読み取り可能な記憶媒体に、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、プロセッサによってロードおよび実行されると、請求項1ないし13のいずれか一項に記載のコンテンツ投稿方法を実現することを特徴とする、前記コンピュータ読み取り可能な記憶媒体。
JP2020541526A 2018-02-06 2019-01-30 コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 Active JP7004944B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810117665.9 2018-02-06
CN201810117665.9A CN108270794B (zh) 2018-02-06 2018-02-06 内容发布方法、装置及可读介质
PCT/CN2019/073900 WO2019154216A1 (zh) 2018-02-06 2019-01-30 内容发布方法、装置及可读存储介质

Publications (2)

Publication Number Publication Date
JP2021513699A JP2021513699A (ja) 2021-05-27
JP7004944B2 true JP7004944B2 (ja) 2022-01-21

Family

ID=62773565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020541526A Active JP7004944B2 (ja) 2018-02-06 2019-01-30 コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11429659B2 (ja)
JP (1) JP7004944B2 (ja)
CN (1) CN108270794B (ja)
WO (1) WO2019154216A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108270794B (zh) 2018-02-06 2020-10-09 腾讯科技(深圳)有限公司 内容发布方法、装置及可读介质
US10769428B2 (en) * 2018-08-13 2020-09-08 Google Llc On-device image recognition
CN111597468B (zh) * 2020-05-08 2023-08-18 腾讯科技(深圳)有限公司 社交内容的生成方法、装置、设备及可读存储介质
CN111601115B (zh) * 2020-05-12 2022-03-01 腾讯科技(深圳)有限公司 一种视频检测的方法、相关装置、设备及存储介质
CN112364219A (zh) * 2020-10-26 2021-02-12 北京五八信息技术有限公司 内容发布方法、装置、电子设备及存储介质
CN114654884B (zh) * 2020-12-22 2023-06-06 精工爱普生株式会社 印刷条件设定方法、印刷条件设定系统
CN113055709B (zh) * 2021-03-08 2023-05-09 北京达佳互联信息技术有限公司 视频发布方法、装置、设备、存储介质及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013501975A (ja) 2009-08-07 2013-01-17 グーグル インコーポレイテッド 視覚クエリに応答するためのアーキテクチャ
US20140156769A1 (en) 2012-12-04 2014-06-05 Institute For Information Industry System and method for posting message on social network website through an image
US20150201030A1 (en) 2013-12-16 2015-07-16 Co Everywhere, Inc. Systems and methods for providing geographically delineated content
JP2017010285A (ja) 2015-06-22 2017-01-12 オカムラ印刷株式会社 情報処理システム、情報処理プログラム、情報処理装置およびその制御プログラム
JP2017111782A (ja) 2015-12-17 2017-06-22 富士ゼロックス株式会社 ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置
CN107563897A (zh) 2017-09-08 2018-01-09 廖海斌 基于人脸匹配的名人励志推荐和社交网络建立方法与系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
CN102387463B (zh) * 2010-09-02 2015-06-17 腾讯科技(深圳)有限公司 一种发布微博的方法、装置及移动终端
CN103812753B (zh) * 2012-11-07 2018-05-22 腾讯科技(深圳)有限公司 一种社交网络交互方法及应用平台
CN103258022B (zh) * 2013-05-07 2016-08-17 天津大学 基于用户兴趣的本地商业服务推荐方法
US10235464B2 (en) * 2015-05-05 2019-03-19 Adobe Inc. Method and apparatus for recommending hashtags
CN106384058B (zh) * 2016-09-12 2019-02-05 Oppo广东移动通信有限公司 发布图片的方法和装置
CN106503062B (zh) * 2016-09-28 2019-11-12 广东小天才科技有限公司 一种社交动态的发布方法及装置、用户终端
US10380249B2 (en) * 2017-10-02 2019-08-13 Facebook, Inc. Predicting future trending topics
CN108270794B (zh) * 2018-02-06 2020-10-09 腾讯科技(深圳)有限公司 内容发布方法、装置及可读介质
US10693730B2 (en) * 2018-11-20 2020-06-23 International Business Machines Corporation Communication quality management
US11087553B2 (en) * 2019-01-04 2021-08-10 University Of Maryland, College Park Interactive mixed reality platform utilizing geotagged social media
WO2020176442A1 (en) * 2019-02-25 2020-09-03 Walmart Apollo, Llc Systems and methods of product recognition through multi-model image processing
US11223591B2 (en) * 2020-02-05 2022-01-11 International Business Machines Corporation Dynamically modifying shared location information
TWI800732B (zh) * 2020-04-08 2023-05-01 開曼群島商粉迷科技股份有限公司 適地性個人化內容提供方法與系統

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013501975A (ja) 2009-08-07 2013-01-17 グーグル インコーポレイテッド 視覚クエリに応答するためのアーキテクチャ
US20140156769A1 (en) 2012-12-04 2014-06-05 Institute For Information Industry System and method for posting message on social network website through an image
US20150201030A1 (en) 2013-12-16 2015-07-16 Co Everywhere, Inc. Systems and methods for providing geographically delineated content
JP2017010285A (ja) 2015-06-22 2017-01-12 オカムラ印刷株式会社 情報処理システム、情報処理プログラム、情報処理装置およびその制御プログラム
JP2017111782A (ja) 2015-12-17 2017-06-22 富士ゼロックス株式会社 ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置
CN107563897A (zh) 2017-09-08 2018-01-09 廖海斌 基于人脸匹配的名人励志推荐和社交网络建立方法与系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
進士 智也 TOMOYA SHINJI,音声ツイートを想定したtwitterクライアントの試作・評価と発話特徴の利用に関する一考察 Prototyping and evaluation of the twitter client that assumes the tweet by voice input and an investigation on the use of utterance features,情報処理学会研究報告 2012(平成24)年度▲5▼ [CD-ROM] ,日本,一般社団法人情報処理学会,2013年02月15日,pp. 1-8

Also Published As

Publication number Publication date
US11429659B2 (en) 2022-08-30
CN108270794B (zh) 2020-10-09
WO2019154216A1 (zh) 2019-08-15
US20200293569A1 (en) 2020-09-17
CN108270794A (zh) 2018-07-10
JP2021513699A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
JP7004944B2 (ja) コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体
US11803345B2 (en) Gallery of messages from individuals with a shared interest
US11250887B2 (en) Routing messages by message parameter
JP6850291B2 (ja) 顔認識アプリケーションにおけるフォールスポジティブの最小化のための方法および装置
US10679063B2 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
US10061985B2 (en) Video understanding platform
US11954142B2 (en) Method and system for producing story video
WO2017202006A1 (zh) 数据处理方法和装置、计算机存储介质
CN112292674A (zh) 为助理系统处理多模态用户输入
US20160182875A1 (en) Gallery of Videos Set to an Audio Time Line
US20140289323A1 (en) Knowledge-information-processing server system having image recognition system
CN113366489A (zh) 检测增强现实目标
CN108292322A (zh) 使用从查看环境捕捉的信号的媒体数据文件的组织、检索、注释和呈现
US10326905B2 (en) Sensory and cognitive milieu in photographs and videos
US20230281940A1 (en) Providing context-aware avatar editing within an extended-reality environment
US20160012078A1 (en) Intelligent media management system
JP2021535508A (ja) 顔認識において偽陽性を低減するための方法および装置
US20220139041A1 (en) Representations in artificial realty
US20170316807A1 (en) Systems and methods for creating whiteboard animation videos
US11373057B2 (en) Artificial intelligence driven image retrieval
TW202318229A (zh) 透過社群媒體平台進行產品搜尋
CN114047979A (zh) 展示项目配置及显示方法、装置、设备、存储介质
CN113438532A (zh) 视频处理、视频播放方法、装置、电子设备及存储介质
TW202335713A (zh) 在延展實境環境內提供情境感知的虛擬化身編輯
KR20230163045A (ko) 메타버스 환경에서 수집된 멀티미디어의 리소스 변환 매칭을 이용한 영상 콘텐츠 제작 서비스 제공 방법 및 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211214

R150 Certificate of patent or registration of utility model

Ref document number: 7004944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150