Ver registro no DEDALUS
Exportar registro bibliográfico

Avaliação da tarefa de complexidade textual: experimentos (2019)

  • Authors:
  • USP affiliated authors: HIGA, EDUARDO - EESC E ICMC
  • USP Schools: EESC E ICMC
  • Sigla do Departamento: SCC
  • Subjects: PROCESSAMENTO DE LINGUAGEM NATURAL; LINGUÍSTICA TEXTUAL
  • Language: Português
  • Abstract: A complexidade de textos é uma questão de grande impacto social e econômico. Uma comunicação textual eficaz depende de os leitores serem proficientes o suficiente para compreender os textos e os mesmos serem claros o suficiente para o público-alvo. No Brasil, apenas 12% da população adulta possui proficiência em leitura, segundo o Indicador de Alfabetismo Funcional (INAF) de 2018. Isto é, 88% da população adulta no Brasil enfrenta dificuldades em atividades que envolvam leitura e compreensão. Neste projeto, as classes de interesse são a Rudimentar, a Básica (que agrupa os atuais níveis Elementar e Intermediário) e a Proficiente. Revisão da Literatura: A área de pesquisa em inteligibilidade textual ou avaliação da complexidade de textos estuda o que faz alguns textos serem mais fáceis de serem lidos do que outros. Uma abordagem tradicional para a tarefa é a construção de fórmulas estatísticas que se baseiam no nível lexical e sintático para predizer a dificuldade de um texto. Atualmente, a análise da complexidade textual usa um arcabouço de análise linguística multinível, trazendo métricas dos vários níveis linguísticos (léxico, sintático, semântico e discursivo), a qual se mostrou mais robusta. A tarefa de inteligibilidade é tratada tipicamente como um problema de classificação em um cenário de aprendizado automático multiclasse. Entretanto, modelos de regressão também foram usados nesse projeto para analisar o impacto de certos parâmetros. Para o português, a área de inteligibilidade textual foi amplamente estudada no projeto PorSimples, que dispunha de 59 métricas para análise da tarefa. Após seu término, novas pesquisas relacionadas ao tema propuseram novas métricas, que atualmente somam 189 desenvolvidas dentro do NILC. Objetivos: O objetivo geral deste projeto de graduação foi revisitar a tarefa de avaliação de complexidade textual estudada no projeto PorSimples (2007 a 2010), usandoo mesmo dataset, mas com novas questões de pesquisa: (1) avaliar a contribuição do uso de mais métricas para a tarefa de avaliação da complexidade textual para o português; (2) avaliar o uso de vários métodos de seleção de features para a criação de um classificador mais compacto, removendo métricas desnecessárias, irrelevantes e redundantes que não contribuem com o desempenho do preditor ou que diminuem o seu desempenho; (3) avaliar o uso de classificadores múltiplos, seja para quebrar a complexidade da tarefa, resolvendo problemas binários ou, por um esquema de votação via ensembles, classificar usando os melhores modelos. Finalmente, esse projeto também teve o objetivo de implementar o classificador em uma Plataforma Web para disponibilizar publicamente a ferramenta desenvolvida. Resultados: O aumento do número de métricas aumentou o desempenho dos classificadores, contudo, introduziu ruídos ao problema, mostrando que a seleção de features é necessária para conseguir uma melhora significante. O uso de diferentes métodos de seleção mostraram que o número de métricas não está diretamente relacionado ao desempenho, caso sejam pré-processadas. Dentro os métodos, os Wrappers mostraram resultados mais robustos e o dividir a tarefa em problemas binários, o desempenho não melhorou, mas sua abordagem deixou claro que a classificação entre os níveis Básico e Rudimentar é o gargalo da tarefa. Palavras-chave: Processamento de Línguas Naturais, Classificação Textual, Predição da Complexidade de Textos
  • Imprenta:

  • How to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas

    • ABNT

      HIGA, Eduardo; ALUÍSIO, Sandra Maria. Avaliação da tarefa de complexidade textual: experimentos. [S.l: s.n.], 2019.
    • APA

      Higa, E., & Aluísio, S. M. (2019). Avaliação da tarefa de complexidade textual: experimentos. São Carlos: ICMC.
    • NLM

      Higa E, Aluísio SM. Avaliação da tarefa de complexidade textual: experimentos. 2019 ;
    • Vancouver

      Higa E, Aluísio SM. Avaliação da tarefa de complexidade textual: experimentos. 2019 ;

    Últimas obras dos mesmos autores vinculados com a USP cadastradas na BDPI: