Fast Deep Stacked Network: Um algoritmo baseado em Extreme Learning Machine para treinamento rápido de uma arquitetura empilhada com pesos compartilhados
Nome: BRUNO LÉGORA SOUZA DA SILVA
Tipo: Tese de doutorado
Data de publicação: 18/03/2022
Orientador:
Nome![]() |
Papel |
---|---|
PATRICK MARQUES CIARELLI | Orientador |
Banca:
Nome![]() |
Papel |
---|---|
CARMELO JOSÉ ALBANEZ BASTOS FILHO | Examinador Externo |
DANIEL CRUZ CAVALIÉRI | Examinador Externo |
LUIZ ALBERTO PINTO | Examinador Externo |
PATRICK MARQUES CIARELLI | Orientador |
THOMAS WALTER RAUBER | Examinador Externo |
Resumo: O uso de Redes Neurais Artificiais (RNA) para resolu¸cao de problemas de classifica¸cao e
regressao ganhou bastante popularidade, principalmente ap´os a introdu¸cao do algoritmo
backpropagation para trein´a-las utilizando conjuntos de dados. Nos ´ultimos anos, o grande
volume de dados gerados e a capacidade de processamento de computadores e placas
gr´aficas tornou poss´ıvel treinar grandes arquiteturas (profundas) capazes de extrair e predizer informa¸coes sobre problemas complexos, usualmente usando grandes quantidades de
tempo. Em contrapartida, algoritmos r´apidos para o treinamento de redes simples, como a
composta por apenas uma camada oculta, chamadas de Single Layer Feedforward Network
(SLFN), mas capazes de aproximar qualquer fun¸cao cont´ınua, foram propostos. Um deles ´e
o chamado Extreme Learning Machine (ELM), que possui solu¸cao r´apida e fechada, sendo
aplicado em diversas ´areas do conhecimento e obtendo desempenhos superiores a outros
m´etodos, como as pr´oprias RNA treinadas com backpropagation e Support Vector Machines
(SVM). Variantes do ELM foram propostas para resolver problemas de underfitting e
overfitting, outliers, entre outros, mas ainda sofrem na presen¸ca de grandes volumes de
dados e/ou quando ´e necess´aria uma arquitetura com mais neuronios para extrair mais
informa¸coes. Nesse sentido, foi proposta uma versao empilhada, chamada Stacked ELM,
que poe v´arias SLFN treinadas por ELM em cascata, aproveitando informa¸coes de um
m´odulo em sua posterior, mas que possui limita¸cao quanto ao consumo de mem´oria, al´em
de nao ser adequada para lidar com problemas que envolvem uma ´unica sa´ıda, como
t´ıpicas tarefas de regressao. Outro m´etodo empilhado ´e chamado de Deep Stacked Network
(DSN), que possui problemas quanto ao tempo de treinamento e uso de mem´oria, mas sem
apresentar a limita¸cao de aplica¸cao do Stacked ELM. Assim, este trabalho propoe combinar
a arquitetura DSN com o algoritmo ELM e o Kernel ELM a fim de obter arquiteturas que
empilham m´odulos pequenos, com treinamento r´apido e utilizando pouca mem´oria, capaz
de atingir desempenhos equivalentes a modelos com mais neuronios ocultos. Tamb´em ´e
proposta uma forma desta arquitetura lidar com dados que vao chegando aos poucos,
chamado aprendizado incremental (ou online, no contexto de ELM). V´arios experimentos
foram conduzidos para avaliar os m´etodos propostos, tanto para problemas de classifica¸cao
quanto regressao. No caso do m´etodo online, foram considerados apenas os problemas
de regressao. Os resultados mostram que as t´ecnicas sao capazes de treinar arquiteturas
empilhadas com desempenhos estatisticamente equivalentes `as SLFN com muitos neuronios
ou a m´etodos online propostos na literatura, quando as m´etricas acur´acia e erro m´edio
sao avaliados. Quanto ao tempo de treinamento, os m´etodos se mostraram mais r´apidos
em diversos casos. J´a quanto ao uso de mem´oria, os m´etodos propostos se mostraram
estatisticamente superiores, o que facilita o seu uso em ambientes com hardware restrito.
Palavras-chave: Deep Stacked Network. Extreme Learning Machine. Classifica¸cao. Regressao. Modelos Empilhados. Aprendizado increme