关于API:
这个API将识别中文文本中的单词,并提供分词结果。
传递要分词的文本并接收一个包含所有分词的数组。
这个API非常适合那些希望为新学习者提供分词的学习平台。
除了每月API调用限制外,其他没有限制。
提供的中文文本,此API将检索到所有识别的单词的数组
词语分割 - 端点功能
| 对象 | 描述 |
|---|---|
请求体 |
[必需] Json |
["此","工","具","將","幫","助","您","對","給","定","文","本","中","的","單","詞","進","行","分","段","。"]
curl --location --request POST 'https://zylalabs.com/api/842/chinese+word+segmentation+api/614/word+segmentation' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "此工具將幫助您對給定文本中的單詞進行分段。"
}'
| 标头 | 描述 |
|---|---|
授权
|
[必需] 应为 Bearer access_key. 订阅后,请查看上方的"您的 API 访问密钥"。 |
无长期承诺。随时升级、降级或取消。 免费试用包括最多 50 个请求。
词语分割端点返回从提供的中文文本中提取的分割词数组。数组中的每个元素代表API识别的一个单独词汇
响应数据结构为包含字符串的 JSON 数组 每个字符串对应于输入文本中的一个切分词 方便处理和显示
Word Segmentation端点的主要参数是输入文本,该文本应为一串汉字。不需要额外的自定义参数
典型的用例包括需要进行分词的语言学习应用程序以满足教育目的文本分析工具以及需要处理中文文本以进行自然语言处理任务的应用程序
用户可以遍历返回的数组以显示分段词汇 进行进一步分析 或将分段输出集成到语言学习工具中 以增强理解和词汇获取
该API利用先进的自然语言处理算法,基于广泛的中文语料库进行训练,以确保准确的分词,从多样的来源提升可靠性
数据准确性通过对基础算法和训练数据集的持续更新来维持,这些更新会根据用户反馈和语言研究定期进行精细调整
如果输入文本为空或不包含可识别的单词,API将返回一个空数组。用户应在其应用程序中实现检查,以优雅地处理这种情况,确保顺畅的用户体验
服务级别:
100%
响应时间:
395ms
服务级别:
100%
响应时间:
263ms
服务级别:
100%
响应时间:
319ms
服务级别:
100%
响应时间:
250ms
服务级别:
100%
响应时间:
270ms
服务级别:
100%
响应时间:
1,091ms
服务级别:
100%
响应时间:
1,658ms
服务级别:
100%
响应时间:
627ms
服务级别:
100%
响应时间:
625ms
服务级别:
100%
响应时间:
500ms