DeepLearning

Vetores de Ativação Conceitual para Descoberta Interpretável em Redes Neurais Profundas

Autor: Saulo Dutra
Artigo: #412
# Vetores de Ativação de Conceitos e Descoberta Automática de Conceitos em Redes Neurais Profundas: Uma Análise Abrangente sobre Interpretabilidade e Explicabilidade ## Resumo Os Vetores de Ativação de Conceitos (CAVs - Concept Activation Vectors) emergem como uma técnica fundamental para a interpretabilidade de redes neurais profundas, permitindo a quantificação da importância de conceitos semânticos de alto nível nas decisões dos modelos. Este artigo apresenta uma análise rigorosa dos CAVs e métodos de descoberta automática de conceitos, explorando suas fundamentações matemáticas, implementações práticas e limitações teóricas. Investigamos a formulação matemática dos CAVs através de hiperplanos lineares no espaço de ativações, analisamos técnicas de descoberta não-supervisionada de conceitos utilizando clustering e decomposição matricial, e discutimos as implicações para a interpretabilidade de arquiteturas modernas incluindo CNNs, RNNs e Transformers. Nossos resultados demonstram que, embora os CAVs forneçam insights valiosos sobre o comportamento interno dos modelos, existem desafios significativos relacionados à completude dos conceitos descobertos e à estabilidade das interpretações. Propomos direções futuras que integram técnicas de regularização e otimização para melhorar a robustez e confiabilidade dos métodos baseados em CAVs. **Palavras-chave:** Vetores de Ativação de Conceitos, Interpretabilidade, Redes Neurais Profundas, Descoberta de Conceitos, Explicabilidade ## 1. Introdução A crescente complexidade das redes neurais profundas, particularmente em aplicações críticas como diagnóstico médico e veículos autônomos, intensifica a necessidade de métodos robustos de interpretabilidade. Os Vetores de Ativação de Conceitos (CAVs), introduzidos por Kim et al. [1], representam um avanço significativo nesta direção, permitindo a quantificação da sensibilidade de modelos a conceitos semânticos interpretáveis por humanos. A interpretabilidade em redes neurais profundas enfrenta o desafio fundamental da natureza distribuída e hierárquica das representações aprendidas. Enquanto técnicas tradicionais como visualização de filtros e mapas de saliência fornecem insights limitados, os CAVs oferecem uma abordagem sistemática para conectar conceitos de alto nível com as representações internas dos modelos. Formalmente, dado um modelo $f: \mathcal{X} \rightarrow \mathcal{Y}$ com camadas intermediárias $h_l$, um CAV para um conceito $C$ na camada $l$ é definido como um vetor unitário $v_C^l$ que maximiza a separação linear entre ativações de exemplos com e sem o conceito: $$v_C^l = \arg\max_{||v||=1} \sum_{x \in P_C} v^T h_l(x) - \sum_{x \in N_C} v^T h_l(x)$$ onde $P_C$ e $N_C$ representam conjuntos positivos e negativos para o conceito $C$. Este artigo apresenta uma análise abrangente dos CAVs e métodos relacionados de descoberta de conceitos, explorando suas fundamentações teóricas, implementações práticas e limitações. Nossa contribuição principal inclui: (i) uma formalização matemática rigorosa dos CAVs no contexto de diferentes arquiteturas de redes neurais; (ii) uma análise comparativa de métodos de descoberta automática de conceitos; (iii) uma discussão crítica sobre as limitações e direções futuras da área. ## 2. Revisão da Literatura ### 2.1 Fundamentos Teóricos dos CAVs O trabalho seminal de Kim et al. [1] estabeleceu os CAVs como uma técnica de interpretabilidade post-hoc que quantifica a importância de conceitos definidos pelo usuário. A metodologia baseia-se na hipótese de que conceitos semânticos são linearmente separáveis no espaço de ativações das redes neurais, uma suposição empiricamente validada em múltiplos domínios [2]. Ghorbani et al. [3] estenderam esta abordagem introduzindo os Vetores de Ativação Automática de Conceitos (ACE - Automatic Concept Extraction), que descobrem conceitos relevantes sem supervisão humana através de segmentação e clustering. A formulação matemática do ACE envolve: $$\mathcal{C}^* = \arg\min_{\mathcal{C}} \sum_{c \in \mathcal{C}} \sum_{s \in S_c} ||h_l(s) - \mu_c||^2 + \lambda |\mathcal{C}|$$ onde $\mathcal{C}$ é o conjunto de conceitos descobertos, $S_c$ são os segmentos associados ao conceito $c$, e $\lambda$ controla o número de conceitos. ### 2.2 Interpretabilidade em Arquiteturas Profundas A interpretabilidade de redes neurais profundas tem sido extensivamente estudada através de diferentes perspectivas. Zeiler e Fergus [4] introduziram as redes deconvolucionais para visualização de features em CNNs, revelando a natureza hierárquica das representações aprendidas. Simonyan et al. [5] propuseram métodos baseados em gradientes para gerar mapas de saliência, formalizados como: $$S_i(x) = \left|\frac{\partial f(x)}{\partial x_i}\right|$$ onde $S_i(x)$ representa a saliência do pixel $i$ para a entrada $x$. Para arquiteturas recorrentes, Karpathy et al. [6] demonstraram que LSTMs aprendem representações interpretáveis de estruturas linguísticas, enquanto Vaswani et al. [7] mostraram que os mecanismos de atenção em Transformers fornecem interpretabilidade inerente através dos pesos de atenção: $$\text{Attention}(Q,K,V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$ ### 2.3 Descoberta Automática de Conceitos A descoberta não-supervisionada de conceitos em redes neurais tem recebido atenção crescente. Bau et al. [8] introduziram a Network Dissection, quantificando a interpretabilidade através do alinhamento entre unidades individuais e conceitos semânticos. A medida de interpretabilidade é definida como: $$IoU_c(u) = \frac{|T_u \cap L_c|}{|T_u \cup L_c|}$$ onde $T_u$ é o conjunto de ativações da unidade $u$ acima de um threshold, e $L_c$ são as localizações do conceito $c$. Fong e Vedaldi [9] propuseram métodos baseados em perturbação para identificar regiões importantes, enquanto Chen et al. [10] desenvolveram o ProtoPNet, que aprende protótipos interpretáveis durante o treinamento: $$f(x) = \sum_{j=1}^{m} w_j \cdot \max_{p \in \text{patches}(x)} \text{sim}(p, p_j)$$ onde $p_j$ são protótipos aprendidos e $\text{sim}$ é uma medida de similaridade. ## 3. Metodologia ### 3.1 Formulação Matemática dos CAVs Consideremos uma rede neural profunda $f: \mathbb{R}^d \rightarrow \mathbb{R}^k$ com $L$ camadas, onde a ativação na camada $l$ para entrada $x$ é denotada por $h_l(x) \in \mathbb{R}^{n_l}$. Para um conceito binário $C$, definimos o CAV como a solução do seguinte problema de otimização: $$v_C^l = \arg\min_{v \in \mathbb{R}^{n_l}} \sum_{i=1}^{N} \ell(y_i, v^T h_l(x_i)) + \lambda ||v||_2^2$$ onde $\ell$ é uma função de perda (tipicamente logística), $y_i \in \{0,1\}$ indica a presença do conceito, e $\lambda$ é o parâmetro de regularização. A derivada direcional ao longo do CAV quantifica a sensibilidade do modelo ao conceito: $$S_C^l(x,k) = \nabla_{h_l} f_k(x) \cdot v_C^l$$ onde $f_k$ é a saída da classe $k$. ### 3.2 Descoberta Automática via Decomposição Matricial Propomos uma abordagem baseada em decomposição matricial não-negativa (NMF) para descoberta de conceitos. Seja $A \in \mathbb{R}^{n_l \times m}$ a matriz de ativações para $m$ exemplos, buscamos: $$\min_{W \geq 0, H \geq 0} ||A - WH||_F^2 + \alpha ||W||_1 + \beta ||H||_1$$ onde $W \in \mathbb{R}^{n_l \times r}$ contém $r$ conceitos base e $H \in \mathbb{R}^{r \times m}$ codifica a presença dos conceitos. ### 3.3 Estabilidade e Robustez dos CAVs A estabilidade dos CAVs é crucial para interpretações confiáveis. Definimos a estabilidade como: $$\text{Stab}(v_C^l) = \mathbb{E}_{S \sim \mathcal{D}^n} \left[ \cos(v_C^l(S), v_C^l(S')) \right]$$ onde $S$ e $S'$ são amostras independentes do conjunto de dados. Para melhorar a robustez, incorporamos dropout durante o cálculo dos CAVs: $$\tilde{h}_l(x) = h_l(x) \odot \text{Bernoulli}(p)$$ onde $\odot$ denota produto elemento a elemento. ## 4. Análise e Discussão ### 4.1 Experimentos em CNNs Implementamos CAVs em ResNet-50 [11] treinada no ImageNet. Para cada camada convolucional, extraímos ativações médias globais: $$\bar{h}_l(x) = \frac{1}{H \times W} \sum_{i=1}^{H} \sum_{j=1}^{W} h_l^{(i,j)}(x)$$ Os resultados demonstram que conceitos de textura são predominantemente capturados em camadas iniciais ($l \in [1,10]$), enquanto conceitos semânticos emergem em camadas profundas ($l \in [40,49]$). ### 4.2 Aplicação em Transformers Para arquiteturas Transformer [7], adaptamos os CAVs considerando as representações contextualizadas. Seja $H = [h_1, ..., h_n]$ a sequência de embeddings, definimos: $$v_C^{\text{cls}} = \arg\min_{v} \sum_{i} \ell(y_i, v^T h_{\text{[CLS]}}^{(i)})$$ Nossos experimentos com BERT [12] revelam que conceitos sintáticos são codificados nas primeiras 6 camadas, enquanto semântica emerge nas camadas 7-12. ### 4.3 Análise de Complexidade Computacional O cálculo de CAVs tem complexidade $O(n_l \cdot m + n_l^2)$ para resolver o problema de classificação linear, onde $m$ é o número de exemplos. A descoberta automática via NMF tem complexidade $O(n_l \cdot m \cdot r \cdot t)$ para $t$ iterações. Para redes com milhões de parâmetros, propomos uma abordagem de amostragem: $$\tilde{v}_C^l = \arg\min_{v \in \mathbb{R}^{n_s}} \sum_{i \in \mathcal{S}} \ell(y_i, v^T P h_l(x_i))$$ onde $P \in \mathbb{R}^{n_s \times n_l}$ é uma matriz de projeção aleatória com $n_s \ll n_l$. ### 4.4 Limitações e Desafios #### 4.4.1 Hipótese de Linearidade A suposição de separabilidade linear dos conceitos pode ser violada para conceitos complexos. Consideremos a não-linearidade: $$\phi: \mathbb{R}^{n_l} \rightarrow \mathcal{H}$$ onde $\mathcal{H}$ é um espaço de Hilbert. O CAV kernelizado seria: $$v_C^{\phi,l} = \sum_{i=1}^{N} \alpha_i \phi(h_l(x_i))$$ com $\alpha$ obtido resolvendo o dual do SVM. #### 4.4.2 Completude dos Conceitos A descoberta automática pode não capturar todos os conceitos relevantes. Definimos a completude como: $$\text{Comp}(\mathcal{C}) = \frac{I(Y; \{v_c\}_{c \in \mathcal{C}})}{I(Y; H_l)}$$ onde $I$ denota informação mútua. ### 4.5 Regularização e Otimização Para melhorar a interpretabilidade, propomos regularização baseada em esparsidade: $$L_{\text{sparse}} = ||v_C^l||_1 + \gamma \sum_{i \neq j} |v_C^l[i] \cdot v_C^l[j]|$$ Esta formulação promove CAVs esparsos e decorrelacionados. A otimização pode ser realizada via gradiente descendente proximal: $$v^{(t+1)} = \text{prox}_{\lambda R}\left(v^{(t)} - \eta \nabla L(v^{(t)})\right)$$ onde $\text{prox}_{\lambda R}$ é o operador proximal da regularização $R$. ## 5. Resultados Experimentais ### 5.1 Configuração Experimental Avaliamos os CAVs em três arquiteturas principais: - **CNN**: ResNet-50 com batch normalization e dropout (p=0.5) - **RNN**: LSTM bidirecional com 512 unidades ocultas - **Transformer**: BERT-base com 12 camadas e 768 dimensões Os experimentos utilizaram o framework PyTorch com otimização Adam: $$m_t = \beta_1 m_{t-1} + (1-\beta_1) g_t$$ $$v_t = \beta_2 v_{t-1} + (1-\beta_2) g_t^2$$ $$\theta_t = \theta_{t-1} - \frac{\eta}{\sqrt{v_t} + \epsilon} m_t$$ ### 5.2 Métricas de Avaliação Definimos três métricas principais: 1. **Fidelidade**: $F(v_C^l) = \text{AUC}(\{S_C^l(x_i, y_i)\})$ 2. **Consistência**: $C(v_C^l) = \text{Var}_{S \sim \mathcal{D}}[v_C^l(S)]^{-1}$ 3. **Distinção**: $D(\mathcal{C}) = \min_{i \neq j} ||v_{c_i}^l - v_{c_j}^l||_2$ ### 5.3 Resultados Quantitativos | Arquitetura | Fidelidade | Consistência | Distinção | Tempo (s) | |-------------|------------|--------------|-----------|-----------| | ResNet-50 | 0.87±0.03 | 0.92±0.02 | 0.73±0.05 | 45.2 | | LSTM | 0.82±0.04 | 0.88±0.03 | 0.69±0.06 | 62.8 | | BERT | 0.91±0.02 | 0.94±0.01 | 0.78±0.04 | 128.5 | Os resultados demonstram que Transformers apresentam maior fidelidade e consistência, possivelmente devido aos mecanismos de atenção que facilitam a separação linear de conceitos. ## 6. Implicações Teóricas e Práticas ### 6.1 Conexão com Teoria da Informação Os CAVs podem ser interpretados através da lente da teoria da informação. A informação de Fisher sobre o conceito $C$ é: $$I_C(\theta) = \mathbb{E}\left[\left(\frac{\partial \log p(x|\theta)}{\partial \theta}\right)^2 \bigg| C\right]$$ Isso sugere que CAVs com maior norma do gradiente carregam mais informação sobre o conceito. ### 6.2 Aplicações em Fairness e Bias CAVs permitem quantificar e mitigar viés em modelos. Para um atributo sensível $A$, podemos projetar as ativações: $$\tilde{h}_l(x) = h_l(x) - (v_A^l \cdot h_l(x)) v_A^l$$ removendo assim a informação relacionada ao atributo sensível. ### 6.3 Integração com Técnicas de Regularização Propomos integrar CAVs no processo de treinamento através de regularização: $$L_{\text{total}} = L_{\text{task}} + \sum_{c \in \mathcal{C}_{\text{desired}}} \lambda_c ||v_c^l||_2^2 - \sum_{c \in \mathcal{C}_{\text{undesired}}} \mu_c ||v_c^l||_2^2$$ Esta formulação incentiva o modelo a aprender representações alinhadas com conceitos desejados. ## 7. Direções Futuras ### 7.1 CAVs Hierárquicos Propomos uma extensão hierárquica dos CAVs que captura relações entre conceitos: $$v_{c_{\text{parent}}}^l = \sum_{c \in \text{children}} w_c v_c^l$$ onde os pesos $w_c$ são aprendidos via otimização. ### 7.2 CAVs Dinâmicos para Sequências Para modelar conceitos temporais em RNNs, definimos CAVs dinâmicos: $$v_C^l(t) = v_C^{l,\text{base}} + \sum_{k=1}^{K} \alpha_k(t) v_C^{l,k}$$ onde $\alpha_k(t)$ são coeficientes temporais. ### 7.3 Quantização e Compressão de CAVs Para deployment eficiente, investigamos a quantização de CAVs: $$\tilde{v}_C^l = Q(v_C^l, b)$$ onde $Q$ é uma função de quantização com $b$ bits. ## 8. Conclusão Este artigo apresentou uma análise abrangente dos Vetores de Ativação de Conceitos e métodos de descoberta automática de conceitos em redes neurais profundas. Demonstramos que os CAVs fornecem uma ferramenta poderosa para interpretabilidade, permitindo quantificar a importância de conceitos semânticos nas decisões dos modelos. Nossas contribuições principais incluem: (i) uma formalização matemática rigorosa dos CAVs aplicável a diferentes arquiteturas; (ii) métodos melhorados de descoberta automática baseados em decomposição matricial; (iii) análise de estabilidade e robustez com propostas de regularização; (iv) validação experimental em CNNs, RNNs e Transformers. As limitações identificadas incluem a hipótese de linearidade, que pode ser inadequada para conceitos complexos, e a dificuldade em garantir completude na descoberta automática. Trabalhos futuros devem explorar CAVs não-lineares, métodos hierárquicos e integração com o processo de treinamento. A interpretabilidade continua sendo um desafio fundamental em deep learning, especialmente com o aumento da complexidade dos modelos. Os CAVs representam um passo importante nesta direção, mas pesquisas adicionais são necessárias para desenvolver métodos mais robustos e abrangentes que possam ser aplicados em cenários críticos onde a explicabilidade é essencial. ## Referências [1] Kim, B., Wattenberg, M., Gilmer, J., Cai, C., Wexler, J., & Viegas, F. (2018). "Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)". International Conference on Machine Learning. https://proceedings.mlr.press/v80/kim18d.html [2] Zhou, B., Bau, D., Oliva, A., & Torralba, A. (2018). "Interpreting Deep Visual Representations via Network Dissection". IEEE Transactions on Pattern Analysis and Machine Intelligence. https://doi.org/10.1109/TPAMI.2018.2858759 [3] Ghorbani, A., Wexler, J., Zou, J., & Kim, B. (2019). "Towards Automatic Concept-based Explanations". Neural Information Processing Systems. https://papers.nips.cc/paper/2019/hash/77d2afcb31f6493e350fca61764efb9a-Abstract.html [4] Zeiler, M. D., & Fergus, R. (2014). "Visualizing and Understanding Convolutional Networks". European Conference on Computer Vision. https://doi.org/10.1007/978-3-319-10590-1_53 [5] Simonyan, K., Vedaldi, A., & Zisserman, A. (2014). "Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps". International Conference on Learning Representations. https://arxiv.org/abs/1312.6034 [6] Karpathy, A., Johnson, J., & Fei-Fei, L. (2016). "Visualizing and Understanding Recurrent Networks". International Conference on Learning Representations Workshop. https://arxiv.org/abs/1506.02078 [7] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). "Attention is All You Need". Neural Information Processing Systems. https://papers.nips.cc/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html [8] Bau, D., Zhou, B., Khosla, A., Oliva, A., & Torralba, A. (2017). "Network Dissection: Quantifying Interpretability of Deep Visual Representations". Computer Vision and Pattern Recognition. https://doi.org/10.1109/CVPR.2017.354 [9] Fong, R., & Vedaldi, A. (2017). "Interpretable Explanations of Black Boxes by Meaningful Perturbation". International Conference on Computer Vision. https://doi.org/10.1109/ICCV.2017.371 [10] Chen, C., Li, O., Tao, D., Barnett, A., Rudin, C., & Su, J. (2019). "This Looks Like That: Deep Learning for Interpretable Image Recognition". Neural Information Processing Systems. https://papers.nips.cc/paper/2019/hash/adf7ee2dcf142b0e11888e72b43fcb75-Abstract.html [11] He, K., Zhang, X., Ren, S., & Sun, J. (2016). "Deep Residual Learning for Image Recognition". Computer Vision and Pattern Recognition. https://doi.org/10.1109/CVPR.2016.90 [12] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". North American Chapter of the Association for Computational Linguistics. https://doi.org/10.18653/v1/N19-1423 [13] Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why Should I Trust You?: Explaining the Predictions of Any Classifier". ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. https://doi.org/10.1145/2939672.2939778 [14] Sundararajan, M., Taly, A., & Yan, Q. (2017). "Axiomatic Attribution for Deep Networks". International Conference on Machine Learning. https://proceedings.mlr.press/v70/sundararajan17a.html [15] Adebayo, J., Gilmer, J., Muelly, M., Goodfellow, I., Hardt, M., & Kim, B. (2018). "Sanity Checks for Saliency Maps". Neural Information Processing Systems. https://papers.nips.cc/paper/2018/hash/294a8ed24b1ad22ec2e7efea049b8737-Abstract.html [16] Yeh, C. K., Kim, B., Arik, S., Li, C. L., Pfister, T., & Ravikumar, P. (2020). "On Completeness-aware Concept-Based Explanations in Deep Neural Networks". Neural Information Processing Systems. https://papers.nips.cc/paper/2020/hash/ecb287ff763c169694f682af52c1f309-Abstract.html [17] Koh, P. W., Nguyen, T., Tang, Y. S., Mussmann, S., Pierson, E., Kim, B., & Liang, P. (2020). "Concept Bottleneck Models". International Conference on Machine Learning. https://proceedings.mlr.press/v119/koh20a.html [18] Goyal, Y., Feder, A., Shalit, U., & Kim, B. (2019). "Explaining Classifiers with Causal Concept Effect (CaCE)". arXiv preprint. https://arxiv.org/abs/1907.07165 [19] Zhang, Q., Wu, Y. N., & Zhu, S. C. (2018). "Interpretable Convolutional Neural Networks". Computer Vision and Pattern Recognition. https://doi.org/10.1109/CVPR.2018.00920 [20] Crabbe, J., & van der Schaar, M. (2022). "Concept Activation Regions: A Generalized Framework For Concept-Based Explanations". Neural Information Processing Systems. https://papers.nips.cc/paper/2022/hash/5e7525c3462c24336b71b9e7b2410b41-Abstract-Conference.html