Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

38 total results found

2024-2

Material de estudio correspondiente a las sesiones 2024-2

2025-1

Material de estudio correspondiente a las sesiones de estudio 2025-1

PRE-ATTENTION

ATTENTION

Reinforcement Learning

Representation Learning

Transformers

Optimization

Bienvenida

Wiki template

PRE-ATTENTION

📌 Normas Generales 🚫 No subir imágenes ni archivos, solo enlaces. Puedes usar Imgur para subir imágenes. (Eliminar esta sección luego de leerla) En esta wiki se documenta el procesamiento de imágenes con un enfoque en el código. Se incluyen explicaciones detal...

SGD FOR NEURAL NETWORKS

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Miguel Pimiento Juan Calderon Tutor: Miguel Molina 📚 Recursos 🔗 Referencias Deep Learning Category - Sección 4.3 Deep Learning Category - Sección 8.3 🖼 Diapositivas Presentación en Canva 💻 Código / NoteCategories Notebook 📝 No...

BATCH NORM

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Andrea Parra Dana Villamizar Tutor: Henry Mantilla 📚 Recursos 🔗 Referencias Arxiv: Batch Norm 🖼 Diapositivas Presentación en Canva 💻 Código / Notebooks Notebook de la sesión 📝 Notas Adicionales ✍️ Comentarios y Observaciones ...

XAVIER INITIALIZATION

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Juan Toloza Tutor: Guillermo Pinto 📚 Recursos 🔗 Referencias Proceedings - Xavier Initialization 🖼 Diapositivas Presentación en Canva 💻 Código / Notebooks PyTorch initializations Real example 📝 Notas Adicionales ✍️ Comentarios...

FEATURE PYRAMID NETWORKS FOR OBJECT DETECTION

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Paula Uzcategui César Vanegas Tutor: Fabian Perez 📚 Recursos 🔗 Referencias Arxiv: FPN 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Notebook 📝 Notas Adicionales ✍️ Comentarios y Observaciones [Espacio para coment...

BAG OF TRICKS

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Jorge Garcia Brayan Quintero Tutor: Cristian Rey 📚 Recursos 🔗 Referencias Arxiv: Bag of Tricks 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Insertar enlace o insertar archivo 📝 Notas Adicionales ✍️ Comentarios y ...

DEEP NEURAL NETWORKS WITH STOCHASTIC DEPTH

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Valentina Perez Sneider Sánchez Tutor: Ramiro Avila 📚 Recursos 🔗 Referencias Arxiv: Drop Path 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Notebook 📝 Notas Adicionales ¿Cuál es el apellido de Sneyder? ✍️ Coment...

KNOWLEDGE DESTILLATION

PRE-ATTENTION

🎤 Ponentes y Tutor(es): Guillermo Pinto Henry Mantilla 📚 Recursos 🔗 Referencias Arxiv: Distilling the Knowledge 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Knowledge Distillation Tutorial 📝 Notas Adicionales ✍️ Comentarios y Observa...

TRANSFORMER: ATTENTION IS ALL YOU NEED

ATTENTION

🎤 Ponentes y Tutor(es): Jorge Garcia Juan Calderón Tutor: Fabián Pérez 📚 Recursos 🔗 Referencias Arxiv: Attention Is All You Need 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Transformer Multi-Head Attention 📝 Notas Adicionales ✍️ Com...

VISION TRANSFORMER

ATTENTION

🎤 Ponentes y Tutor(es): Juan Toloza Valentina Perez Tutor: Miguel Angel 📚 Recursos 🔗 Referencias Arxiv: Vision Transformer 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks ViT 📝 Notas Adicionales ✍️ Comentarios y Observaciones [Espacio ...

PATCHES ARE ALL YOU NEED?

ATTENTION

🎤 Ponentes y Tutor(es): Brayan Quintero Paula Uzcategui Tutor: Cristian Rey 📚 Recursos 🔗 Referencias Arxiv: Patches Are All You Need? 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks ConvMixer 📝 Notas Adicionales ✍️ Comentarios y Observa...

MASKED AUTOENCODERS ARE SCALABLE VISION LEARNERS

ATTENTION

🎤 Ponentes y Tutor(es): Sneider Sánchez Miguel Pimiento Tutor: Guillermo Pinto 📚 Recursos 🔗 Referencias Arxiv: Masked Autoencoders 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks MAE 📝 Notas Adicionales ✍️ Comentarios y Observaciones [...

INTRIGUING PROPERTIES OF VISION TRANSFORMERS

ATTENTION

🎤 Ponentes y Tutor(es): Andrea Parra César Vanegas Tutor: Henry Mantilla 📚 Recursos 🔗 Referencias Arxiv: Intriguing Properties of Vision Transformers 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks No hay, no existe, tacaños 📝 Notas Adicion...

DINO

ATTENTION

🎤 Ponentes y Tutor(es): Dana Villamizar Julio Tutor: Ramiro Avila 📚 Recursos 🔗 Referencias Arxiv: DINO 🗂 Diapositivas Presentación en Canva 💻 Código / Notebooks Notebook 📝 Notas Adicionales ✍️ Comentarios y Observaciones [Espacio para comentario...

🏋️Introduction to RL

Reinforcement Learning

👥 Expositores: 👤 Fabian Perez 👤 Paula Uzcátegui 📑 Material de apoyo: La presentacion se hizo basado en el articulo de karpathy de introduccion a RL y en multiples fuentes externas 📊 Diapositivas: Ver presentación 📜 Blog: Link 💻 Video Externo: Enlace a Youtu...

🦜LoRA

Representation Learning

👥 Integrantes: 👤 Sneider Sánchez 👤 César Vanegas 📑 Material de apoyo: 📜 Paper: Ver artículos académicos 💻 Video Autor Video 📊 Diapositivas: Ver presentaciones 📗 Resumen: Ver documento 🎯 Objetivos ✅ Comprender cómo funciona LoRA a nivel matemático. ✅Compar...

🤖Mastering the game of Go with deep neural networks and tree search

Reinforcement Learning

👥 Integrantes: 👤 Guillermo Pinto 👤 Dana Villamizar 📑 Material de apoyo: 📊 Diapositivas: Ver presentación 📜 Paper: Ver artículo académico 🎯 Objetivos ✅ Explicar la combinación de deep learning y búsqueda de árboles de Monte Carlo (MCTS) en AlphaGo. ✅ Anal...

ROFORMER: ENHANCED TRANSFORMER WITH ROTARY POSITION EMBEDDING

Transformers

👥 Integrantes: 👤 Miguel Ángel Molina G. 👤 Sneider Sánchez 📑 Material de apoyo: 📊 Diapositivas: Diapositivas 📜 Paper: Artículo 🎯 Objetivos Se plantean 3 objetivos para esta exposición: ✅ Analizar las limitaciones de los métodos tradicionales de encoding po...

🏆 Muon Optimizer: Un Enfoque Basado en Newton-Schulz

Optimization

👥 Integrantes: 👤 Andrea Parra 👤 Jorge Andrey 📑 Material de apoyo: 📊 Diapositivas: Ver presentaciones 📜 Paper: Modular Duality in Deep Learning 💻 Código externo: TBA 🕸️ Blog muon: Muon: An optimizer for hidden layers in neural networks El optimizador Muon e...

FEATUP: A MODEL-AGNOSTIC FRAMEWORK FOR FEATURES AT ANY RESOLUTION

Representation Learning

👥 Integrantes: 👤 Jorge Andrey Garcia Vanegas 👤 Cristian Rey 📑 Material de apoyo: 📊 Diapositivas: Enlace a las diapositivas 📜 Paper: Enlace al artículo 🎯 Objetivos Se plantean los siguientes objetivos para esta exposición: ✅ Comprender la importancia de la...