El objetivo principal de muchas tareas en robótica y visión es conocer la
forma tridimensional de un objeto en el mundo real, aún cuando solo se le ha
presentado una porción de éste. La esencia de estas tareas, es saber hacia donde
se debe mover un sensor de rango montado en un robot tal que adquiera más
información de un objeto cuya superficie se conoce parcialmente . Sin embargo,
se convierte en un problema de grandes retos cuando se requiere de un nivel
alto de autonomı́a, por que un robot debe decidir, por sı́ mismo, hacia donde
moverse para que vea al objeto por completo. En esta tesis, se plantea la tarea
de planificación de la pose del sensor para aumentar la superficie del objeto de
interés (siguiente mejor vista) mediante técnicas de aprendizaje profundo. Es-
pecı́ficamente, se utiliza una red neuronal convolucional que es entrenada para
predecir la próxima pose a donde debe moverse el sensor. Se muestra que la
cobertura de reconstrucción alcanzada es superior en comparación con un algo-
ritmo de naturaleza similar. También se propone un algoritmo para etiquetar
automáticamente conjuntos de datos provenientes de nubes de puntos tridimen-
sionales; en consecuencia, la supervisión de un humano experto es eliminada.
Hasta donde sabemos, este enfoque propuesto es de los primeros que utiliza
aprendizaje profundo para resolver dicho problema.