Comenzamos hablando del calendario y las correcciones realizadas por le profe a este. Luego se usó issues para confirmar que los repositorios estén al día y para revisar versiones pasadas de este curso, que puedan ayudarnos a pensar el siguiente proyecto.
Estuvimos investigando los trabajos de estudiantes pasades como tarea.
Con mi compañera de trabajo, MacNCheese03, nos interesaron particularme los trabajos disponibles en los repositorios de CRISISCRAOZ y angebv00, que usan el reconocimiento facial.
https://github.com/FAU-UChile/audiv027-2024-1/tree/main/estudiantes/04-angebv00/clase-06#clase-06
https://github.com/FAU-UChile/audiv027-2024-1/tree/main/estudiantes/04-angebv00/clase-06#clase-06
“ChainmailChasers”, ARG.
Veremos nuevamente cómo entrenar un modelo.
Nuevo proyecto
Haciendo uso de la webcam, se registran ejemplos de distintos estados de la imagen, para que la herramienta sea capaz de identificar qué está viendo según la base de datos otorgada.
Por sí solo, no es nada. -> Exportar modelo.
Escogemos Tensorflow.js para p5.
Nos genera un snippet del código que se puede abrir directamente en p5.js Web Editor.
Desde el comienzo, nos encontramos con anotaciones de color rojo en html < >. Es necesario sacarlas para poder correr el modelo en p5.js Web Editor, pues es un lenguaje distinto que está pensado para aportar a versiones más antiguas de p5. La actual no las necesita.
<! – inicio/fin teachable machine – >, señala el inicio y final del código que acabamos de copiar.
Se borra la línea que llama a correr p5, siendo esta una acción que ya se había realizado.
La versión anterior a la actual en ml5 es la 0.12.2. Al encontrar una línea de código que llame a correr la última versión de ml5, se cambia por la versión anterior para evitar los errores que vienen con los cambios de la nueva versión.
Todo lo que queda del Teachable Machine se copia, borra y pega en sketch, teniendo cuidado de sacar las indicaciones de que inicia y acaba el script, que no es necesario al estar ya editando en p5.
Ahora, nos falta my_model, el modelo que hicimos en Teachable Machine.
Volviendo a la página de exportar.
Subir enlace | Descargar modelo |
Descargar -> archivo comprimido -> descomprimir -> llevar a sketch, archivos, subir.
Quitar flippedvideo en caso de que no funcione la cámara.
https://editor.p5js.org/montoyamoraga/sketches/uG1sOH1QE
Hacer una copia de este modelo, hacer anotaciones y hacerlo correr. Al lograrlo, entrenar un modelo y hacerlo correr en el editor de p5.js
https://editor.p5js.org/leleleo3/sketches/3XM-D9T8c
Entrar al Github de Teachable Machine y buscar el problema de por qué no funciona con p5. Lograr cambio.