Esta API oferece um sistema avançado para detectar automaticamente linguagem ofensiva em textos, permitindo a identificação precisa de palavras inadequadas, insultos e expressões potencialmente prejudiciais. Seu objetivo principal é ajudar a avaliar textos em tempo real, melhorando a segurança e a qualidade do conteúdo gerado por usuários. Quando um texto é enviado como entrada, a API retorna uma análise estruturada que inclui vários indicadores essenciais para entender o nível de toxicidade presente na mensagem.
Um dos atributos mais importantes é isProfanity, um valor Booleano que indica se o texto contém linguagem ofensiva ou inadequada. Ele também fornece uma pontuação, uma métrica quantitativa que representa a probabilidade estimada de que o texto seja considerado profano. Esse valor é especialmente útil em ambientes onde limites de moderação precisam ser ajustados para diferentes contextos ou públicos.
A API também inclui um campo de gravidade, que classifica o nível de gravidade da linguagem detectada. Essa classificação permite distinguir entre casos leves, como expressões coloquiais, e situações mais sérias, como insultos diretos ou linguagem altamente tóxica. Para clareza, a resposta também especifica flaggedFor, um conjunto de categorias que explica o exato motivo pelo qual o texto foi sinalizado, permitindo que sistemas automatizados tomem decisões mais informadas.
Analisa o texto e detecta linguagem ofensiva, retornando a gravidade, pontuação, categoria marcada, idioma e se o conteúdo deve ser considerado profano ou inadequado
Analisador de Texto - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11449/extract+text+content+censorship+api/21609/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint do Analisador de Texto retorna dados estruturados que incluem indicadores de linguagem ofensiva no texto analisado Resultados chave incluem se o texto contém palavrões um score de severidade um score de risco categorias marcadas o idioma do texto e o dialeto identificado
Os campos principais nos dados de resposta são `isProfanity` (Booleano), `score` (numérico), `severity` (numérico), `flaggedFor` (array de categorias), `language` (string) e `dialect` (string) Esses campos fornecem informações sobre a natureza e a gravidade da linguagem ofensiva detectada
Os dados da resposta estão organizados em um formato JSON, com cada chave representando um aspecto específico da análise. Por exemplo, `isProfanity` indica se o texto é ofensivo, enquanto `flaggedFor` lista os motivos para a sinalização, permitindo uma fácil análise e interpretação por sistemas automatizados
O endpoint do Analisador de Texto fornece informações sobre a presença de linguagem ofensiva, níveis de severidade, pontuações de risco, categorias de conteúdo sinalizado e o idioma e dialeto do texto. Esta análise abrangente ajuda a entender a toxicidade do conteúdo gerado pelo usuário
Os usuários podem personalizar suas solicitações de dados ajustando o texto de entrada que enviam para o endpoint do Analisador de Texto Enquanto o endpoint não aceita parâmetros adicionais o conteúdo do texto em si pode variar para testar diferentes cenários e analisar vários tipos de linguagem
Casos de uso típicos para os dados do Analisador de Texto incluem moderação de conteúdo para plataformas de mídia social filtragem de comentários de usuários em sites aprimoramento de aplicativos de chat para prevenir assédio e garantir conformidade com diretrizes da comunidade ao identificar linguagem tóxica
A precisão dos dados é mantida por meio de atualizações contínuas dos modelos de linguagem subjacentes e avaliações regulares contra conjuntos de dados diversos Isso garante que a API possa reconhecer e classificar efetivamente a linguagem ofensiva em diferentes contextos e dialetos
Os padrões de dados padrão na resposta incluem uma indicação clara de se o texto é profano (`isProfanity`), uma pontuação numérica refletindo a gravidade da linguagem e uma lista de categorias em `flaggedFor`. Os usuários podem esperar formatação e estrutura consistentes na resposta JSON
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
99ms
Nível de serviço:
100%
Tempo de resposta:
301ms
Nível de serviço:
100%
Tempo de resposta:
324ms
Nível de serviço:
100%
Tempo de resposta:
280ms
Nível de serviço:
100%
Tempo de resposta:
1.711ms
Nível de serviço:
100%
Tempo de resposta:
1.733ms
Nível de serviço:
100%
Tempo de resposta:
1.374ms
Nível de serviço:
100%
Tempo de resposta:
39ms
Nível de serviço:
67%
Tempo de resposta:
1.507ms
Nível de serviço:
100%
Tempo de resposta:
30ms
Nível de serviço:
100%
Tempo de resposta:
2.185ms
Nível de serviço:
100%
Tempo de resposta:
9ms
Nível de serviço:
100%
Tempo de resposta:
1.809ms
Nível de serviço:
100%
Tempo de resposta:
1.491ms
Nível de serviço:
100%
Tempo de resposta:
539ms
Nível de serviço:
100%
Tempo de resposta:
1.828ms
Nível de serviço:
100%
Tempo de resposta:
37ms