diff --git a/_extras/BinningRefinmentDereplication.md b/_extras/BinningRefinmentDereplication.md
index 597d767..8721857 100644
--- a/_extras/BinningRefinmentDereplication.md
+++ b/_extras/BinningRefinmentDereplication.md
@@ -1,97 +1,203 @@
---
-title: "Clasificación taxonómica y metabolismo"
-teaching: 15
-exercises: 15
+title: "Binning, Refinamiento y Desreplicación"
+teaching: 2 h
+exercises: 3 h
questions:
-- "Cómo podemos obtener MAGs de buena calidad? "
+- "Cómo podemos obtener MAGs de buena calidad?"
+- "Cómo eliminamos redundancia?"
objectives:
-- "Tener una visión global sobre como reconstruir genomas de buena calidad a partir de metagenomas"
+- "Obtener MAGs no redundantes de buena calidad"
+keypoints:
+- "Usar más de un programa de binning aumenta la probabilidad de agrupar más genomas"
+- "Conjuntar y refinar los bins es esencial para aumentar la calidad de los genomas"
+- "Eliminar redundancia genómica es necesario para describir bien la comunidad microbiana"
---
-## Genomas a partir de metagenomas
+## Mapeo
-La metagenómica hace referencia al estudio de todo el ADN de los organismos que se encuentran en un ambiente. La secuenciación de este material genético produce lecturas que pueden ensamblarse para conocer la diversidad microbiana y sus funciones.
+En los [días anteriores](https://carpentries-lab.github.io/metagenomics-analysis/) aprendieron a evaluar la calidad de las lecturas, filtrarlas y ensamblarlas, por lo que este apartado comenzará con un ensamble ya generado.
-Típicamente los metagenomas pueden estudiarse mediante dos aproximaciones:
+De acuerdo con el flujo de análisis (Figura 1), debemos partir de un ensamble, mapear las lecturas y obtener un archivo de profundidad de cada contig en el ensamble.
+
-* La clasificación taxonómica de contigs o lecturas y la inferencia metabólica de los contigs.
-* La reconstrucción de genomas a a partir de metagenomas (MAGs), clasificación taxonómica y la inferencia metabólica de los MAGs.
-
-En este apartado nos enfocaremos en la segunda aproximación. Los **MAGs** se reconstruyen a partir de un **ensamble metagenómico**, los contigs de dicho ensamble se agrupan mediante la información de **cobertura y frecuencia de tetranucleótidos**. Esta agrupación puede generar errores, por lo que es indispensable evaluar la calidad de los MAGs mediante la completitud y redundancia de genes de copia única [MerenLab y col.](https://anvio.org/vocabulary/)
+> ## Archivos de profundidad
+> El proceso de mapeo es demandante en tiempo de ejecución y recursos. Así que nos dimos a la tarea de generar el archivo de profundidad para comenzar directamente con el *binning*.
+>
+> El mapeo lo corrimos con [bowtie2](https://bowtie-bio.sourceforge.net/bowtie2/manual.shtml#introduction) que es una herramienta confiable
+> y muy utilizada para alinear lecturas cortas a una referencia, en nuestro caso, la referencia es el ensamble metagenómico de la muestra de 48hrs.
+> Bowtie2 genera un archivo de mapeo (SAM) que debe convertirse a un formato binario (BAM), para esta conversión usamos [samtools](https://github.com/samtools/) que contiene multiples subherramientas para trabajar con archivos de mapeos.
+> Para generar este archivo se utilizaron las siguientes lineas de código.
+>> ~~~
+>> # Formatear el ensamble
+>> bowtie2-build results/02.ensambles/megahit/48hrs/48hrs.fasta results/03.profundidad/48hrs --threads 40
+>> # Mapear las lecturas contra el ensamble
+>> bowtie2 -x results/03.profundidad/48hrs -1 data/48hrs_sm_R1.fastq -2 data/48hrs_sm_R2.fastq -p 40 -S results/03.profundidad/48hrs.sam
+>> # Convertir de SAM a BAM y ordenar
+>> samtools view -Sb -O BAM -@ 40 results/03.profundidad/48hrs.sam | samtools sort -@ 40 -o results/03.profundidad/48hrs_sorted.bam
+>> # Obtener el índice
+>> samtools index results/03.profundidad/48hrs_sorted.bam
+>> ~~~
+>> {: .bash}
+>>
+>> Ya que generamos el archivo bam ordenado y el índice, obtuvimos un archivo con la información de cobertura de cada contig dentro del ensamble,
+>> este **archivo de profundidad** se generó con `jgi_summarize_bam_contig_depths` que es una herramienta desarrollada por el JGI.
+>>
+>> ~~~
+>> # Obtener el archivo de profundidad de cada contig
+>> jgi_summarize_bam_contig_depths --outputDepth results/03.profundidad/48hrs.mgh_depth.txt results/03.profundidad/48hrs_sorted.bam
+>> ~~~
+>> {: .bash}
+> {: .callout}
+>
+> No las ejecutes, sólo son un ejemplo para que las puedas usar con tus propios datos en el futuro.
+{: .callout}
+
+
+> ## Ejercicio 1. ¿Qué información requieren los programas de binning?
+> Antes de comenzar, reúnete con tu equipo y juntos:
+> * Revisen nuevamente el contenido de los directorios `02.ensambles` y `03.profundidad.txt`
+> * En una diapositiva expliquen el `flujo teórico` que se siguió para obtener los archivos que están en esos directorios.
+> Usa [esta](https://drive.google.com/drive/folders/1rg-zjuASg9D-goa2SlL3HXalqj3BQFNX?usp=sharing) liga de drive para ir trabajando durante el taller.
+> Sólo un miembro de cada equipo escriba en la presentación
+{: .challenge}
-Para obtener MAGs podemos seguir el siguiente flujo de análisis:
+------------------------------------------------------------------------
+## Binning
-
-
-
+🧬 Ahora si, vamos a agrupar los contigs del metaensamble en *bins* ...
-Ya que discutimos como seguir un flujo de análisis para reconstruir genomas entremos en acción, para ello analizaremos el metagenoma del pozol.
-
-## El pozol
+### Metabat2
-**El pozol** es un alimento ácido, fermentado a partir de maíz nixtamalizado, de importancia económica y cultural,
-se consume desde tiempos prehispánicos y se ha estudiado desde los años 50s.
+[Metabat2](https://bitbucket.org/berkeleylab/metabat/src/master/) es una herramienta que agrupa los contigs tomando la cobertura de cada contig y calcula su composición nucleotídica.
-
-
-
+
+
+
+
+
+ Metabat2. Kang et al., 2015. DOI:10.7717/peerj.1165
+