-
00:00:00los minutos previos al cacharrero, excelente
-
00:00:05Bueno, vivimos tiempo para esto, ¿no? Sí
-
00:00:08Pues sí, por aquí estoy listo con algo de esto de Gau shen
-
00:00:14Algo que
-
00:00:16les interese, que
-
00:00:17me guste acá como primero, como revisar, así muy breve, ¿no? Pues mira, yo creo que
-
00:00:21lo hacen como la sin que
-
00:00:22tú es principal, ¿no? La pelea con la que
-
00:00:24ya me encontró, la verme enfrentado ahora, porque
-
00:00:26claro, yo me fijao la diferencia entre la teoría, el haberlo visto, el haber visto vuestros ejemplos, vuestros trabajos, pero a la verme enfrentado ya en campo el tema del escaneo, porque
-
00:00:39por ejemplo con Oscar, pues teníamos ahí a veces diferentes visiones de cómo escanear
-
00:00:45¡Dime! Yo no te escucho, estar muy teado
-
00:00:48No, me escucháis
-
00:00:49No, sé oye, yo lo oigo
-
00:00:51Sí, también
-
00:00:52Decirle que
-
00:00:53cierre y refresco igual
-
00:00:55Es ser cosa mía
-
00:00:57Cabe por eso, no me escuchaba antes
-
00:01:06Yo digo eso que
-
00:01:08por ejemplo Oscar, por ejemplo, el drone que
-
00:01:13tiene no tiene para orientar la cámara para arriba, cosa que
-
00:01:16veo necesaria para cuando hay techos o salientes, o detalles por debajo, como era el caso en concreto de mi trabajo, y sobre todo tener ese esquema
-
00:01:30de escaneo y lo que
-
00:01:32le decía Oscar, en los trabajos profesionales hace falta un reconocimiento del sitio para saber luego cómo actuar a la hora de escanearlo, ¿no? Entonces, en concreto, mi primer trabajo, pues es un horror de edificios, una
-
00:01:47preciosidad, pero un horror a la hora de descanearlo, porque
-
00:01:50no le puede hacer una órbita completa, no le puedes poner un drone link programado, porque
-
00:01:58tiene una casa al lado en la que
-
00:02:00te puedes estampar el drone, porque
-
00:02:03el mismo retorto home puede estar en la otra punta y de repente al volver choca se con la casa, porque
-
00:02:12está bastante más altura que
-
00:02:13el propio edificio
-
00:02:14Entonces, sí que
-
00:02:16bueno, nos marcamos un poco el escaneo, como te mandé la captura, y ves que
-
00:02:22están las posiciones de la cámara, lo hice cenital para coger toda la parte de arriba, hice a 45 a 30 grados para abajo para tener esa diagonal y los suelos dentro de la galería, y luego
-
00:02:39a menos 30 para arriba para coger los techos de los interiores de las galerías solo por dentro de las galerías, que
-
00:02:47yo creo que
-
00:02:48debería haber mapé a otra vez la fachada desde abajo también, pero bueno, eso cargaría más el proyecto
-
00:02:55Entonces, yo principalmente me gustaría hablar sobre el escaneo, que
-
00:02:59no creo que
-
00:03:00no hemos hablado mucho y es donde yo he visto también problema, y luego yo creo que
-
00:03:04también cosa que
-
00:03:05interesa mucho es el flujo de trabajo, desde el escaneo hasta el procesado y la publicación
-
00:03:12Mario? Sí, hola, León, ¿qué tal a todos? Hola, no, yo también me quería
-
00:03:18sumar un poquito como lo específico que
-
00:03:21podría hacer, como las necesidades o las inquietudes que
-
00:03:25tenemos con la parte del flujo de trabajo, la semana pasada estuve ayudando a tomar, hacer uno escaneo de muebles, de prueba, y claro, uno de los problemas principales que
-
00:03:34no tienen acá al tratar de hacer pruebas son los tiempos, porque
-
00:03:38por ejemplo se te ocurre ocupar una iluminación de un tipo o otra, o grabar un video que
-
00:03:44se llodar dos vueltas, otras vueltas, peor del objeto o cambiar los ángulos, y cada una de esas pruebas tiene que
-
00:03:49pasar por todo un proceso que
-
00:03:51es bastante lento al tener resultados finales y comparar
-
00:03:53Entonces, yo creo que
-
00:03:55sería súper útil ir compartiendo experiencias de todos como para tratar de encontrar buenas ideas y buenas soluciones a la hora de que
-
00:04:02los escaneos, por ejemplo, sea lo mejor posible que
-
00:04:05tengan la iluminación correcta, los ángulos y todo, yo creo que
-
00:04:08eso tiene mucho que
-
00:04:09ver con equivocarse y con la experiencia como en la práctica de haber realizado los escaneos
-
00:04:14Y la otra parte que
-
00:04:16también te quería
-
00:04:17como consultar por curiosidad, como va ese asunto, es que
-
00:04:21cuando llega la parte del optimización, yo he estado trabajando ahora en Blender tratando sobre todo de sacar escaneos y darme cuenta cuáles son los resultados, por ejemplo, en Kiri me da la posibilidad de que
-
00:04:33me genera un met o que
-
00:04:34me genera un splat, y después yo he visto resultados distintos, variados dependiendo del tipo de geometría de los objetos, y he hecho reto por legislación y recuperación de texturas, y hay veces que
-
00:04:47es súper simple, a veces que
-
00:04:48los resultados son bastante, bueno, otra vez que
-
00:04:51más complicado, yo creo que
-
00:04:52es bueno empezar a entender cuando uno se propone un trabajo que
-
00:04:56tanto vas a necesitar esa optimización posterior del escaneo, y también en la parte de la exportación, porque
-
00:05:04al momento de exportar y me da cuenta que
-
00:05:05hay mucha diferencia en cuanto a tamaños de archivo, entonces, cuando trabajamos con cositas chicas, pero repetidas veces, por ejemplo, que
-
00:05:12se yo sea mueble, importa, o cuando trabaja con objetos grandes, como que
-
00:05:16se yo una vista y una ciudad que
-
00:05:18tenga mucho polígonos, también me importan, entonces yo he estado haciendo algunas preas, de hecho, una de las cosas que
-
00:05:25me di cuenta era que
-
00:05:26en SuperSplat la exportación te dan algunos formatos comprimidos, que
-
00:05:30pues no te tomas de vista, y me da cuenta también que
-
00:05:33el formato de voucher en splat, yo me bajaba estos papers, tratado de leer y mantiene informado al respecto, está en pleno desarrollo, y hay tantos cambios, tan emergentes, que
-
00:05:43hay montón de cosas que
-
00:05:44se están probando sobre todo con estas capturas de movimiento, de tratar de capturar los splat moviéndose, que
-
00:05:49no probablemente lo que
-
00:05:50hablemos ahora en un par de meses va a cambiar, porque
-
00:05:54todavía no está standardizado, y eso es un problema o un desafío para no hacerlo, entonces también gustaría ver cuál es esta apreciación al respecto
-
00:06:00Sí, gracias
-
00:06:03Algo de lo que
-
00:06:04mencionas es, y es importante tocarlo, ¿no? Que es para que
-
00:06:09lo vamos a utilizar, ¿no? Si hablas de optimización y blender, posiblemente, el hecho de que
-
00:06:15trabajemos con gavosh and splat, entonces no sea el camino, sino la fotografía como tal, empezar ahí como sobre esa parte, a reserva de lo que
-
00:06:22hace Kiri, que
-
00:06:23Kiri te ofrece ambas, te ofrece el gavosh y te ofrece este mesh, pero sí tendrá que
-
00:06:29ver mucho con el objetivo, ahorita por ejemplo, y hemos tiempo buscando mucho con gavosh and splat principalmente a tres de vista, el principal, y en segundo, utilizando tres estudios max, que
-
00:06:43es el software que
-
00:06:43usamos, que
-
00:06:44es similar a blender, para poder integrar con textos reales, con edificios generales, ¿no? Pero sí, sí creo que
-
00:06:52empiezo a entender por donde trego, que
-
00:06:54tengo material preparado ahorita, es práctico, y vamos, vamos agregando, ¿no? Entonces si alguien hace este, tenga que
-
00:07:00poner alguna idea, quiero como para ver si vamos a tener un poquito de sus cosas, ¿no? Y alguna duda, o algún puntual sobre gavosh and
-
00:07:10Sí, eso igual la optimización, ¿no? Porque
-
00:07:13yo por ejemplo le he tenido que
-
00:07:14poner, le hice el otro día una prueba ya a dos mil splats en el super, en el hotshot, y ver, a la hora de luego subirlo a tres de vista, si solo con lo que
-
00:07:25te aumentaste, de subirlo a super splat y volverlo a bajar, o ver algún proceso para que
-
00:07:31como va ir online, primero tener toda la máxima calidad posible, pero que
-
00:07:35luego a la hora de peso lo podamos subir online
-
00:07:39De acuerdo, traigo algo de eso, viermo y también de lo que
-
00:07:43te sucedió en relación a los componentes, ¿no? Entonces, el digo, no es una solución aún, pero es una pista, muy bien, entonces no sé, alguien más, o ya puedo compartir pantalla, ¿qué les parece? Después te
-
00:08:01ha saltado con preguntarle, ¿no? Vale, vale
-
00:08:04Sí, voy a tratar de medirme los tiempos, no al mejor, esta parte, como más teórica unos 10 minutos, si ya mejor nos vamos a algo práctico para que
-
00:08:13sea como más sustancial, y a la petición de Pietro, voy a tratar de hablar más elento, vale, muy bien, excelente
-
00:08:25Entonces, comparto pantalla y pues comparto mejor todo, bueno, no sé si me pueden indicar si me ven todo bien, se ve perfecto, se ve moviendo la pantalla
-
00:08:42Excelente, voy a dedicarle 10 minutitos como en ponernos al día, si les parece en relación al software que
-
00:08:49hay, todo enfocado a Gaussian Splatting y bueno, y posterior a ello, nos vamos como un estudio de caso en donde podríamos abrir algún data set para ver el escaneo, más o menos como bajo mi experiencia,
-
00:09:05como me ha resultado, y por otro lado, la parte de la optimización, de que
-
00:09:13pues habíamos perdido técnicamente Super Splat para usar solamente PostShot, pero pues este, creo que
-
00:09:21ya podemos volver a usar Super Splat y tres de vista está lineado de momento, como bien decía Leon, todo sigue en beta, todo este proceso sigue en beta, entonces pues es como lo que
-
00:09:31hablaba en el principio de chat GPT y este nuevo fenómeno, no, chino, que
-
00:09:36hay, todo está cambiando y puede cambiar de un día a otro completamente, entonces bueno, les platico un poquito sobre lo que
-
00:09:45traigo por acá, recuerden que
-
00:09:47ustedes tienen acceso, no sé si me pueden confirmar, tienen acceso como este documento, que
-
00:09:54bueno, yo sigo alimentando siempre, donde pues aquí pueden mover algunas cosas que
-
00:10:00ya son obsoletas, otras que
-
00:10:02pues están como en la mira, como los nuevos formatos existentes, y pues siempre estelado el roadmap, que
-
00:10:10es más o menos cómo se está desarrollando también hacia dónde está extendiendo esta tecnología, bueno, igual aquí lo pueden explorar ustedes para no abordar mucho en esa parte, los métodos de reconstrucción, más hibe nada más
-
00:10:25como para recapitular, hay dos principales, uno, que
-
00:10:31es, no tengo tiempo por ahí, Leon me mencionaba ahorita ahí, cómo podemos verificar esto rápido, no, antes de irnos de lugar, no sé, me imagínense que
-
00:10:40está en una locación, tomando muchas fotografías, van a estar dos días, pues bueno, obviamente trabajar con la metodología de post -shot, sin duda tomaría mucho tiempo, sobre todo si estamos fuera de nuestra oficina, y no
-
00:10:54tenemos un computador, un ordenador potente, pues bueno, lo que
-
00:10:58yo he implementado es utilizar alguna de estas herramientas, bueno, este no, lo que
-
00:11:05sería el luma, que
-
00:11:06lamentablemente está muy saturado, entonces como se ha habrando cuenta, quienes lo usan, pues puede durar hasta tres días e darles un resultado, ustedes suben su captura y tres días después están recibiendo cuando antes sucedía en
-
00:11:22minutos esto, ya está como sobre pasado, sigue siendo una buena opción dentro de los soluciones que
-
00:11:29tenemos en la nube para estar cargando información incluso desde nuestro móvil, el drone conectado al móvil y del móvil aluma, esa es una posibilidad de tener, era una posibilidad de tener un resultado rápido, preliminar antes
-
00:11:43de saber si no sé, imaginemos que
-
00:11:48escanean la fachada unas tomas cenitales y algunas órbitas como para poder prever algún problema, entonces luma era como una posibilidad, otra posibilidad es Policam y Kiri, ambos son de paga, creo que
-
00:12:04Policam me ha dado resultados un poquito más rápidos que
-
00:12:10Kiri, pero tampoco ya no son así, puede durar un escaneo en resolverse a la mejor un par de horas, a diferencia de luma que
-
00:12:25te lo dan en tres días, entonces tal vez en ese par de horas podían ustedes implementar alguna solución de subir la información, seguir fotografiando y tener un preliminar antes de retirarse de el lugar pensando en
-
00:12:40que
-
00:12:40les toca viajar para poder tomar fotos a un edificio, algo que
-
00:12:45yo no he probado y también ya tengo ganas de probar es Kiri en via web, que
-
00:12:50es la metodología bajo estas herramientas que
-
00:12:54procesan en la nube, que
-
00:12:56prácticamente es permitirnos subir desde su sitio web que
-
00:13:01puede ser desde nuestro móvil, pues es una cantidad de información para poder obtener esto que
-
00:13:07mencionaba león, ahorita tenemos este doble en Kiri que
-
00:13:10tenemos lo que
-
00:13:11es el Gaussian y la Maya, ambos por el precio de uno, es decir, subimos el dataset de imágenes y al final obtenemos una Maya y un Gaussian pero via web, que
-
00:13:23es la forma en que
-
00:13:25podríamos traernos, información que
-
00:13:28no sale de nuestro móvil, sino que
-
00:13:29pueden ser fotos de drone, fotos de varias cámaras, cámaras 360 entre otras, entonces este es la metodología de reconstrucción que
-
00:13:40ya conocemos todos, nada más, pues era como retomarlos un poquito, yo les recomendaría dado que
-
00:13:47el Luma está un poco saturado, tal vez hacer un esfuerzo o entre todos probar Kiri y el Polycam para ver cuál actualmente está haciendo más eficiente en estos escaneos, exprés, vamos a llamarle, una punta de
-
00:14:01Mario, antes que
-
00:14:02ya abandones, decirte que
-
00:14:04el Luma ha mejorado, yo creo que
-
00:14:06hicieron algún mantenimiento y ha mejorado porque
-
00:14:09una prueba que
-
00:14:11hice yo me la hizo rápida, me la hizo también en una o dos horas y me sorprendió, porque
-
00:14:16llevaba un tiempo atascándose lo que
-
00:14:18hice tres días, pero han debido hacer algún mantenimiento o algo, pero no quita como he dicho varias ocasiones que
-
00:14:25al ser gratuito por algún peaje va a ver qué pasar presente o futuro y uno de ellos eso que
-
00:14:32el gratuito la gente está se está metiendo y obviamente se podrá volver a saturar y si es tu única herramienta vas a depender de ello pues te puede dejar tirado y luego no sé si Polycam
-
00:14:44y Kiri te permiten vídeo como te permite Luma tirarle vídeo como bruto por un por Polycam solamente imágenes nada más y aquí me parece que
-
00:14:57en Kiri solamente imágenes también, por si es diferente de tu poco que
-
00:15:05luma la verdad que
-
00:15:06está muy cómodo porque
-
00:15:07te permite ambas
-
00:15:09Exacto
-
00:15:10Si luma está mucho más completo y más arroyado, es bueno el dato que
-
00:15:15nos compartes, que
-
00:15:17ya están mejorando
-
00:15:18Intentamos buscar, a ver si había alguna documentación, ya que
-
00:15:21tenemos spot -shot de cómo procesa luma, que
-
00:15:25prese tiene a la hora de tirarle material, que
-
00:15:29prese tiene de los splats, de los KST, de estas historias, como el spot -shot podemos ver las tripas, no he encontrado en ningún lado la documentación de luma, que
-
00:15:41me diga cómo él hace el prese, porque
-
00:15:43como no te deja configurar, por lo menos saber qué aplica
-
00:15:47No lo he encontrado
-
00:15:48Sí, correcto, digo, aquí en esos tres metodologías se ahorran ustedes el CPU, el procesamiento, pero pues pierdes control sobre lo que
-
00:15:59está sucediendo con el escaneo
-
00:16:01Entienda que
-
00:16:02ellos
-
00:16:03Mario, ¿quieres si puedes subir vídeo? Hasta tres minutos la cuenta pro y de un minuto en la cuenta gratis
-
00:16:10Y si alguien quiere hacer alguna prueba, yo tengo hace muchos meses la cuenta apagada y quería,
-
00:16:16así que
-
00:16:17me contactan nomás y lo proban
-
00:16:20Muchas gracias, yo también tengo la cuenta, me esté pagada, pero no lo he probado, voy a revisar, tal vez aquí, al cambiarme a Gaussion, me dé la opción, pero aquí me hice solamente jpjgif, no sé
-
00:16:35si está oculto algo por ahí
-
00:16:37Acabajo si tú miras en Kiride y se los formatos de foto y de vídeo permitió
-
00:16:43Ah, correcto
-
00:16:44Sí, sí, gracias
-
00:16:45Sí, entonces corregimos por ahí, entonces Kiri, si nos permitiría también subir vídeo, lo cual es muy similar al luma, no? Nada más que,
-
00:16:56bueno, el vídeo límite es un minuto y tres minutos en pro, lo cual es muy poquito, luma nos permite subir 15 minutos de vídeo, entonces sí, a pesar de que
-
00:17:08es una versión pro, está, tiene sus límites, ¿no? Y fotos también me pareció 300 fotos, me pareció un límite al ser muy pocas, muy pocas, ¿eh? Kiri está muy enfocado en objeto por si acaso, por
-
00:17:22ahora
-
00:17:23Claro, claro
-
00:17:25Si no, acá, por ejemplo, Policam, nada más para tener el dato, también nos permite subir 15 minutos o 16 llegas de vídeo
-
00:17:33Y mil fotos
-
00:17:33Sí, que,
-
00:17:34ajá
-
00:17:35Y mil fotos en la versión pro, obviamente, ¿no? Entonces está mucho mejor
-
00:17:40Y luma, bueno, acá, ya que
-
00:17:43si todos lo conocemos, luma es algo similar
-
00:17:46Es tan potente, porque
-
00:17:47es que
-
00:17:47no entiendo que
-
00:17:48esté gratis, porque,
-
00:17:50yo creo que
-
00:17:50va a cambiar, porque
-
00:17:51mira, volví a mirar lo que
-
00:17:52tú nos enseñaste ahí del help y te permite tirarle tres equilrectangulares
-
00:17:56Es la, no sé, me parece salir con la cámara de este solida y escanear
-
00:18:02Sí, incluso en row, mira, me permite subir fotos en row, en HDR, en fin, sí, me parece mucho, mucho más potente, pero bueno, aquí el máximo de vídeo es 5 lligas
-
00:18:16Y en el caso de luma, de pronto de Policam, nos está mandando acá 16 llegas de vídeo, ¿no? Claro
-
00:18:24Lo cual, pues, bueno, prácticamente lo podríamos resolver con un compresor de vídeo o algo parecido, ¿no? Para poder subir más contenido
-
00:18:33De todas formas, yo creo que
-
00:18:34seguramente lo vas a llegar luego, pero el proceso esté de que
-
00:18:38descubriste, de usar potshot, para seleccionar los fotogramas, tanto exportarlos como los mejores
-
00:18:44Creo que
-
00:18:45aquí nos empezamos a olvidar de si el vídeo pesa 15 llegas o no, porque
-
00:18:49con ese paso intermedio te aligeras mucho el proceso
-
00:18:54Claro, pues, sí, sí, sí, ahorita aquí lo tocamos muy rápido, ¿no? Para irnos más bien algo práctico, ¿no? Entonces, así en resumen tenemos estas herramientas que
-
00:19:04ya muchos conocemos, que
-
00:19:05son hay una herramienta nueva que
-
00:19:13está surgiendo, igual para explorarla, que
-
00:19:16se más pel, todavía está en, vamos en el como lista de espera
-
00:19:21Está interesante, porque
-
00:19:22aquí ustedes pueden crear modelos 3D a partir de una imagen o a partir de un texto como todo lo que
-
00:19:29está sucediendo ahorita con la interés artificial, pero pensemos que
-
00:19:333 de vista está prometiendo en el primer cuarto, el primer trimestre del año, tener este herramienta propia de 3 de vista, donde ellos te van a permitir mezclar también modelos, entonces, imaginemos que
-
00:19:46tenemos un escaneo y ustedes simplemente por un aspecto creativo, les gustaría tal vez meter un, no sé, ustedes como le digan a un brujo, un mago, entonces prácticamente se descargan este mago y lo fusionan con
-
00:20:02su escaneo, ¿no? Estoy pensando en lo que
-
00:20:05me salió aquí primero, pero pensemos una casa del árbol o cualquier otra cosa, fusionarlo con creando, entonces esto se empieza a abrir en ese sentido, en la mezcla de modelos y contenido como ya está sucediendo
-
00:20:20con lo que
-
00:20:22es super splat, que
-
00:20:23ahorita vamos a tocarlo, ¿no? Entonces otra de los rumbo que
-
00:20:28se puede tomar para este tipo de reconstrucciones con Gaussian, pues es la parte de la reconstrucción en modo local, ¿no? en sus computadoras, utilizando procesamiento de video principalmente, digamos que
-
00:20:42la tecnología surge, justo con Nerf Studio, aquí ustedes pueden explorar de que
-
00:20:47se trata, sigue siendo vigente y Nerf es una tecnología anterior a Gaussian splatting, sin embargo, se ha estado generando como un híbrido, está muy interesante, pero bueno, aquí ustedes requieren de código y un paper que
-
00:21:02pues pueden instalar en su computadora, notarán mucho, pero el proceso también sigue siendo lento, ¿no? Sin embargo, es mucho más líquido a nivel profesional, esto podría servir para cine incluso, ¿no? Otra de las tecnologías que
-
00:21:16existen antes o después de Nerf es inrea, se llama, es esta de aquí, también es un paper que
-
00:21:23pues igual las grandes productoras están utilizando esta tecnología para implementar Gaussian splatting en cine y pues nada, aquí también se requiere poder de procesamiento local en sus computadoras y tiempo, obviamente, entonces aquí lo que
-
00:21:41ofrece este tipo de tecnologías es poderles subir al máximo la calidad, obviamente es algo pesado para algo web, como estamos previendo como usuarios de 3 de vista, pero sí para otro tipo de producciones, no sé,
-
00:21:54crear video, hacer virtual productions o hacer integración en Blender o 3 de Studio Max para poder integrar contenido 3D sobre algo escaneal, entonces esto sería para mí el más completo de todos, el más potente de
-
00:22:12todos, lo que
-
00:22:13sería este software, ¿no? Y después viene, ahora sí, post -shot, que
-
00:22:17es el que
-
00:22:18hemos estado hablando todo el tiempo, es igualmente potente, es gratuito, sigue en beta como todo lo que
-
00:22:25estamos viendo ahorita, este sigue en el proceso de beta y a diferencia de estos 3 iniciales, nada más para tomarlo en cuenta, post -shot si nos permite tener el control de la calidad del escaneo o
-
00:22:39de la calidad de la maya final o del splat final hablando únicamente de gaussian splat, entonces aquí lo que
-
00:22:46pongo en negritas es como como lo que
-
00:22:48está recomendando o este rumbo para donde podemos irnos, no sé si alguien quería
-
00:22:54mencionar algo, todo bien, bueno, excelente, bueno, entonces llamas para como concluir un poquito esta parte, si nos vamos, por ejemplo por Luma, Policam y Kiri, no tenemos ningún problema, básicamente es procesar, descargar y después irnos
-
00:23:19a editar el modelo, ese sería como el flujo normal, si nos vamos por post -shot, hay dos caminos principalmente, uno es irnos directamente a procesar en post -shot y otro es tratar de ayudarle a post
-
00:23:38-shot digamos que
-
00:23:40a sobrellevar ciertas deficiencias que
-
00:23:42tiene el programa para poder ya sea a cortar el tiempo de producción o mejorar la nitidez del modelo, sin embargo todo esto es una hipótesis que
-
00:23:51hemos estado por ahí tocando con Guillermo a través de algunos papers y videos que
-
00:23:57también les dejo por aquí, entonces lo normal es abrir post -shot, inventar el dataset ahí y procesar en sus computadoras, descargar y limpiar dentro de super splat, pero bueno, la hipótesis que
-
00:24:12se tenía parte de un método que
-
00:24:14se llama call map en donde bueno, post -shot principalmente, digamos que
-
00:24:21genera un flujo de trabajo donde voy aquí a explicarles un poquito, donde primero recopila las imágenes, esto es muy grande mi pincel, lo primero que
-
00:24:34hace es recopilar las imágenes que
-
00:24:37ustedes le importaron al programa, es decir, todas las fotografías que
-
00:24:41ustedes le cargan al programa, eso toma cierto tiempo, post -shot también para poder ser más eficiente, recuerden que
-
00:24:49post -shot está enfocado en web y en el control total de la calidad de la malla, lo que
-
00:24:56hace post -shot en el segundo paso es poder seleccionar solamente las mejoris imágenes que
-
00:25:05ustedes le arrojen al programa, o bien permitirle ustedes que
-
00:25:11tome todo el dataset como del programa, entonces bueno, esto sería como el primer paso que
-
00:25:20hace post -shot en donde esta ahora que
-
00:25:22se sugiere aquí en este ejemplo es simplemente porque
-
00:25:26post -shot toma la decisión de cuales son las mejores imágenes que
-
00:25:29ustedes pudieran utilizar en caso de que
-
00:25:32quieran tomar esa ruta, una de las deficiencias que
-
00:25:36tiene post -shot es justamente la lineación de imágenes que
-
00:25:40se llama camera tracking, es donde cada fotografía que
-
00:25:44ustedes tomaron con su drone o con su cámara, post -shot, lo que
-
00:25:49intenta hacer es encontrar esa posición de cada cámara donde fue tomada y este proceso a post -shot le suele tomar mucho tiempo el cual pues justamente esta metodología de call map de la que
-
00:26:07hablaba de este lado, lo que
-
00:26:09hace es mezclar este software junto con post -shot para poder optimizar esta línea de tiempo de aquí, no, esto que
-
00:26:17sería esta línea verde, finalmente lo que
-
00:26:20post -shot hace es entrenar el modelo con este dataset que
-
00:26:26son las fotografías, la posición de la cámara y finalmente pues bueno acá lo que
-
00:26:33hace es entrenar el training del lo que
-
00:26:36sería nuestro modelo final que
-
00:26:38es lo que
-
00:26:38estamos buscando, entonces si hay forma, aquí hay un hypothesis de que
-
00:26:44hay una forma de poder cortar esta línea de tiempo para destinar le más tiempo ya sea un entrenamiento de mayor calidad o simplemente pues a cortar justamente lo que
-
00:26:57sería la línea de producción de todo lo que
-
00:27:01es post -shot para irnos nada más al entrenamiento, entonces esta digamos que
-
00:27:07metodología de call map es lo que
-
00:27:10se había estado implementando incluso por productoras para poder tener más calidad y menos tiempo de producción, pero pues se requieren otro tipo de habilidades que
-
00:27:19tal vez ahorita no tenemos muchos de los que
-
00:27:22estamos por acá, no, entonces esto será como parte de los resultados de una imagen producida con call map y después con proces con programas como post -shot, pues se pueden haber, se pueden ver detalles normalmente
-
00:27:37más nítidos o eso es lo que
-
00:27:40la hipótesis que
-
00:27:40se tiene por aquí, que
-
00:27:42simplemente procesando con post -shot, aquí están como los datos que
-
00:27:47vamos a ver ahorita ya na práctica, pero actualmente pues alguien que
-
00:27:53es este Oli, uno de los que
-
00:27:57tenemos por acá en las referencias, creo que
-
00:27:59muchos de aquí ya lo empiezan a ubicar, este alín que
-
00:28:02genera mucho contenido para gaussian splatting entre otros, pues se da cuenta justamente de esta línea de tiempo en donde este proceso que
-
00:28:13hace call map y post -shot que
-
00:28:15lo hace muy lento, está mejorando constantemente que
-
00:28:19es parte de la beta que
-
00:28:20se tiene con post -shot, es lo que
-
00:28:22está tratando de ser un software de Epic Games, lo hacen muy bien justamente ese procedimiento de alinear imágenes, entonces además de que
-
00:28:37lo hacen más rápido, reality capture, suele meterle más puntos, más densidad en sus puntos, de tal forma que
-
00:28:47el resultado dentro de programas como post -shot pues pueden ser visiblemente más nítidos, que
-
00:28:53lo normal por un lado, menor tiempo y por otro lado en más información que
-
00:28:59nos puede dar una maya más limpia, que
-
00:29:02suele carecer por ejemplo de estos fantasmitas, no sé si lo han visto por ahí, estos mayas como nubes que
-
00:29:11están siempre como contaminando nuestras escenas, cuando terminamos un gaussian, el objetivo es pues tratar de tener algo con más calidad, más controlado y en menor tiempo en teoría, pero bueno ahí justamente es donde nos topamos
-
00:29:27con guillermo en un ejercicio que
-
00:29:29está llevando a cabo, entonces por un lado no sé si todos conocen reality capture, si no lo conocen, recomiendo instalarlo, por acá les dejo pues como una pequeña
-
00:29:42guía también, es un software gratuito en cifras, si ustedes están facturando menos de un millón de dólares, sigue siendo gratuito, si facturan de ahí para allá pues son happy problems, finalmente pues puede pagarse eso y
-
00:29:55más, acá se nos requiere mito del sistema y por acá pues un instalar pero bueno esto es parte como todavía de la de la hipótesis entonces lo que
-
00:30:06se sugiere aquí es la combinación de estos dos programas utilizar reality capture para alinear o hacer cámara tracking y utilizar postshot justamente para poder entrenar estas nubes con mayor control y mayor nitidez si es que
-
00:30:24da si lo requerimos
-
00:30:25si es un proyecto rápido si es un proyecto de hobby o algo que
-
00:30:30no es muy relevante pues posiblemente su solución ideal sería estas y la estomaría en nada de tiempo simplemente subir las imágenes a hacer un click y esperar para poder lograr un resultado parecido a lo que
-
00:30:44tendríamos en postshot entonces pues bueno parte de lo que
-
00:30:49habla este flujo que
-
00:30:51hablaba también Guillermo por ahí estamos probando con él pues es justamente entonces mezclar estos dos programas por aquí les dejo un un vídeo que
-
00:31:03trae prácticamente la teoría y acá les dejo un blog donde podemos ingresar a este blog y vamos que
-
00:31:13está permite abrirlo no me está dejando un blog que
-
00:31:21nos que
-
00:31:21nos trae las instrucciones con un vídeo acompañado y las instrucciones de cómo podríamos nosotros lograr este procedimiento en donde se mezcla reality capture para la lineación de la que
-
00:31:33hablaba ahorita con este postshot incluso trae una especie de un código que
-
00:31:42podemos ejecutar es un punto bat no sé creo que
-
00:31:46por aquí a la mejor varios ubicaremos es que
-
00:31:49es un punto bat es un ejecutable que
-
00:31:52que
-
00:31:53básicamente corre varias acciones en nuestra computadora cómo abrir reality capture cargar las imágenes descargar el resultado de reality capture y abrir postshot para que
-
00:32:04se procese nuestro nuestra malla digamos que
-
00:32:08esto lo podrá no ustedes probar también a mí me gusta hacerlo manualmente para poderme quedar
-
00:32:12con dos rutas que
-
00:32:14es fotogrametría y lo que
-
00:32:18es gauche en esplata en fin entonces pues bueno tenemos aquí un poquito de la de la teoría de lo que
-
00:32:25les he estado hablando ahorita donde el proceso habitual de postshot como les hablaba es subimos las imágenes postshot selecciona aquí en verde se ven las mejores imágenes que
-
00:32:38tenemos después postshot al línea o hace el cámara tracking que
-
00:32:43lo hace lento pero seguro vamos a llamarle así finalmente pues un caso de estudio de esto es que
-
00:32:51un proceso de imágenes a 30 k steps que
-
00:32:56ahorita lo vamos a ver pues más o menos anda tomándonos 5 horas 23 minutos si nosotros hicieramos este proceso utilizando reality capture y no tenemos un error que
-
00:33:06les voy a mostrar acá abajo esto podría reducirse prácticamente en un 80 % del tiempo es decir lo podríamos tener en alrededor de de 1 hora y media más o menos no si si no hacerlo
-
00:33:19la matemática pero pero prácticamente le podéis ahorrarnos todo este tiempo si no tenemos ningún error no además de poder obtener resultado ligeramente superior o más limpio entonces pues bueno esta parte de aquí de la que
-
00:33:35les hablaba que
-
00:33:36es la lineación que
-
00:33:37consiste justamente en es en reconstruir esta nube de puntos y encontrar la posición de cada fotografía en el espacio son dos datos que
-
00:33:47tenemos que
-
00:33:48encontrar por un lado la posición de cada fotografía en el espacio y por otro lado la nube de puntos son dos datos se pueden digamos que
-
00:33:59procesar en reality capture justamente pues para solventar esa problemática que
-
00:34:07es la lineación y la mejora o la una nube de puntos más denza si por ahí con Guillermo en este ejercicio lo que
-
00:34:17pasó es que
-
00:34:18bueno Guillermo subió por ahí 3000 imágenes pero en este procedimiento de reality capture lo que
-
00:34:25sucedió es que
-
00:34:26en la lineación como Guillermo tenía cuatro data sets uno del dron o tal vez varios del dron tomados a diferente con diferente técnica para la fachada para los enital y para las órbitas pudo pasar que
-
00:34:41algunos de estos frames o de estas imágenes justamente tuvieran problema de alineación así como les ha pasado muchos de aquí con pete y cuando quieren cocer una panorámica que
-
00:34:52tienen un cielo muy liso o un muro muy liso que
-
00:34:56no tienen marcas de control pues justo acá pasa lo mismo tendríamos que
-
00:35:00manualmente en caso de que
-
00:35:03no separara modelos en lugar de tener un solo modelo alinear con puntos de control manualmente en el programa donde le podamos decir que
-
00:35:14esta fotografía es la misma que
-
00:35:16esta o cierto punto de la fotografía coincide de esta forma lograr vamos pues digamos que
-
00:35:25unir los que
-
00:35:27lo que
-
00:35:27le llaman acá en reality capture componentes que
-
00:35:30son prácticamente modelos en este caso generó cuatro componentes a partir de un data set de imágenes en lugar de generarnos solo y con estos cuatro componentes pues tendrían ustedes que
-
00:35:43alinearlos manualmente entonces pues bueno aquí nuevamente oly aquí le puse le puse un vídeo adelantado para que
-
00:35:51vean un poquito de lo que
-
00:35:52él experimentó que
-
00:35:54es justamente con este procedimiento de reality capture se ahorra o se puede un ahorrar mucho tiempo de procesamiento sin mejorar la calidad de la imagen sin embargo si se encuentren con esta problemática de que
-
00:36:12ustedes tienen varias capturas en diferentes momentos o con diferentes cámaras pudiera ser que
-
00:36:19el levantamiento que
-
00:36:21ustedes hicieron de imágenes tenga algún error de alineación esto sugeriría que
-
00:36:26ustedes tendrán que
-
00:36:27alinearlo manualmente con puntos de control hechos en reality capture así como sucede compete aquí y en el caso de él y mío y seguramente todos ustedes nos llevaría demasiado tiempo aprender y hacerlo manualmente entonces estaríamos
-
00:36:43llegando un poco a donde mismo en donde nos ahorramos tiempo del procedimiento con post shot pero le invertimos nosotros tiempo hombre tratando de alinear estos componentes para poderlos coser y ahora sí llevarnos esta posición de
-
00:37:01cámaras y nueve de puntos a post shot para adelantar el proceso bueno en fin lo que
-
00:37:08también sugera kioli es que
-
00:37:09nos dice que
-
00:37:10si de repente empezamos a tomar práctica esto es un de digamos que
-
00:37:16toma valor el utilizar esta metodología de reality capture pero si no sé igualmente preferimos que
-
00:37:24la máquina trabaje entonces bueno hasta la conclusión lo que
-
00:37:27dice es que
-
00:37:28pues mejor la ventemos el dataset a post shot y que
-
00:37:32pensemos entre el capture para otra ocasión entonces pues son caminos que
-
00:37:38si bien el utilizar reality capture y practicar nos puede llevar a reducir tiempos y a mejorar la calidad también el tener este tipo de errores pues nos puede en su conclusión dice que
-
00:38:00bueno post shot sigue mejorando como sigue en beta y la mejora que
-
00:38:05le pretenden hacer en los próximos cuartos de año es justamente en mejorar la alineación de las cámaras para que
-
00:38:14sea un proceso más veloz de hecho ya hay paper si pues creo que
-
00:38:17todo va al líneao así ese punto no y luego mario no sé si de lo que
-
00:38:21experimentado también haciendo un proceso por reality capture la mezcla de los dos me pone el modelo siempre viene alineado al horizonte en cambio post shot pues aunque
-
00:38:33luego lo puedes mover pero te lo pone inclinado donde ha caído es la otra diferencia que
-
00:38:38he visto también que
-
00:38:40es justo en realidad y capture boom lo dejas siempre he alineado al suelo no sé si cogera gps del dron o no tengo ni idea pero los modelos que
-
00:38:50paso de reality capture a post shot están perfectamente alineados en el horizonte o en el suelo en el plano y en cambio si lo dejo trabajando a post shot lo pone como cae y luego tú
-
00:39:03lo tienes que
-
00:39:03recolocar si correcto pero bueno esa parte se puede resolver muy rápido alineado pero si es una buena observación entonces chí bueno de aquí digamos que
-
00:39:18de este flujo que
-
00:39:20como les decía acá les dejo las instrucciones en este blog igual y ahorita tratamos de hacer algo pues a través de la metodología de reality capture lo que
-
00:39:31obtenemos es justamente exportar un ccv que
-
00:39:34es un carbajal ahí nos decían algún punto con ptg que
-
00:39:45podíamos copiar esas coordenadas en ptg para que
-
00:39:49lo alineara más rápido ya después todo evolucionó pero de momento es algo parecido y el p leye hecho en reality capture que
-
00:39:57no es más que
-
00:39:57el alnube de puntos no el gaussian no un modelo sino simplemente la nube de puntos la combinación del ccv el p leye que
-
00:40:07acá lo tenemos y la y el dataset de fotos es lo que
-
00:40:11podríamos arrastrar acá en post shot para poder ahora así procesar únicamente lo que
-
00:40:17sería el modelo de gaussian splatting entonces si por ejemplo corremos con suerte de no tener este error de que
-
00:40:25no separe el modelo por componentes este sería un gran flujo de trabajo desde reality capture hasta post shot en caso de que
-
00:40:34tengamos este problemita pues bueno habrá que
-
00:40:37asumir simplemente el hecho de que
-
00:40:39tendremos que
-
00:40:40trabajar un poquito más para poder alinearlos tomar práctica y ocasionalmente pues tener vamos como que
-
00:40:49un flujo propio o flujo más establecido saber cuánto nos toma y lo que
-
00:40:55buscamos cuando elegimos esta autología de posión y en realidad con el estudio es dar un trabajo lo más fácil posible sino pues crean que
-
00:41:07tomaríamos fluma policam o Kiri y no es que
-
00:41:10no lo sean pero son otras rutas más rápidas entonces me voy a necesitar como como reto como ha dicho la curva de aprendizaje de alinear con reality capture que
-
00:41:25es lo que
-
00:41:25yo mire me parece un poco complicado y igual te saca de este flujo y le dices mira post shot a todo ocupa la máquina lo que
-
00:41:34necesites y ya está mirar a ver que
-
00:41:37le falta reality capture para que
-
00:41:40nos lo haga todo en un componente quizá le hace falta renombrar la secuencia de imágenes porque
-
00:41:47yo en concreto no usé varias cámaras pero si fueron varias varias tiradas entonces igual le faltan continuidad entre una pasada y otra o la nomenclatura de los archivos yo tengo un programa que
-
00:42:02me renombra bien rápido los estos y como hice todo hice varios clips de vídeo y hice varias exportadas desde pocho para tener las los fotogramas lo que
-
00:42:13sí que
-
00:42:13luego fui algunos fotogramas se llamaban igual pues con el renombrador le ponía a por delante no a todos los archivos toda una tanda tiene la pues igual ir y decir vale cuando termino toda la que
-
00:42:26ha sido el escaneo frontal de la fachada tirarle unas cuantas en 45 grados que
-
00:42:34me unen con el jardín antes de ponerle la cenital del jardín igual hay que
-
00:42:39prepararle el material de una manera a realidad captur para que
-
00:42:43no no nos lo destrocen componentes si siempre tomando en cuenta que
-
00:42:49bueno cualquier cualquier este levantamiento que
-
00:42:52hagas de escaneo por ejemplo acá si si se toman por ejemplo imágenes de la fachada aquí veamos que
-
00:43:03esto es una fachada todo esta parte de aquí es si toman imágenes de la fachada en este sentido bueno siempre capturando hacia la fachada de alguna forma cuando cambiemos para escanear el techo siempre tiene que
-
00:43:18haber un traslap importante es decir todas estas fotos de la fachada o gran parte de la foto de la fachada tienen que
-
00:43:25ver puntos que
-
00:43:27a su vez se vean desde las tomas a 45 ha sido grados tomadas en cenital para que
-
00:43:33pues justamente el software le permita linearlos y igual a lo tan sencillo o una cosa que
-
00:43:42se me ha acabado de ocurrir ya con mi edificio en concreto si yo hago la cenital del jardín y empiezo por la parte izquierda termino en la derecha ahí tirar con la inclinación de 30 45
-
00:43:58grados y volver desde la derecha hacia la izquierda para que
-
00:44:02el la última foto de la tirada de cenital la una con la primera inclinada con angulación podría ser una parte y no volver al lado izquierdo y hacer otra vez del escaneo en el mismo sentido
-
00:44:16sino que
-
00:44:16volver a la contra juega una pregunta claro si es una posibilidad si recorremos que
-
00:44:25también bueno gauche es el escaneo que
-
00:44:28se toma para acá si tienen mucho las bases de la fotografía no justamente el traslap es clave en donde una de estas fotos ve el 60 o 70 fotos de fachada y de repente tienen uno
-
00:44:47de arriba pues parte de estas fotos de fachada tendrán que
-
00:44:50ver un 60 70 por ciento de lo que
-
00:44:52ven las de arriba o viceversa para que
-
00:44:54pues el programa puede entender donde se une fotos de una cámara con las de la otra en el orden en el que
-
00:45:04hacer igual también influye, es lo que
-
00:45:06refería que
-
00:45:07tú aquí está siendo de la frontal de la iglesia o la casa de esta hacia la derecha en 90 grados en la frachada, pero luego el escaneo del tejado a 45 grados lo hagas desde la
-
00:45:20última de la derecha, no, desde la derecha del todo, no desde la frontal, lo digo porque
-
00:45:26igual, si esto va de aquí para allá y luego de acá empezar a ese sentido para tener ese mismo orden, yo investigaría por ahí porque
-
00:45:34creo que
-
00:45:34el Reality Capture está 100, es muy potente, pero es también muy pijo a la hora de pedirle y quiero confirmar si tienen cuenta el orden de los archivos
-
00:45:44Si es una posibilidad, pensaría que
-
00:45:47si le ayuda porque
-
00:45:49hay software de foturametría que
-
00:45:52te dicen, como por ejemplo, Policam te pregunta, las imágenes que
-
00:45:57me está subiendo están en orden correcto, es decir, tienen una secuencia y tú le puedes poner la casilla de que
-
00:46:04sí o que
-
00:46:05no y eso supongo que
-
00:46:07Policam toma decisiones de configuración para poder procesar lo que
-
00:46:12dices me hace sentido que
-
00:46:13pudiera ser un factor que
-
00:46:14influya en que
-
00:46:16esto pueda salir mejor, no que
-
00:46:17no se puedas, sino simplemente que
-
00:46:19pueda salir mejor, más rápido, ¿no? Muy bien, pues bueno, para no abundar mucho en esto, digo que
-
00:46:26aquí les dejo este proceso, el procedimiento, ahorita trataremos de emular algo de esto para ver si es una pregunta me parece
-
00:46:35Sí, adelante, Pietro
-
00:46:37No, Guillermo, ¿tú cuando nombre los archivos, en consecuencia? Los sures, no los tengo un momento, pero yo digas, pero sí
-
00:46:47Me escuchan
-
00:46:50Sí, lo último no te entendido
-
00:46:52Digiste que
-
00:46:53tu nombre lo archivo, ¿no? Sí, yo lo que,
-
00:46:56yo, la técnica que
-
00:46:58yo usé, obviamente había que
-
00:47:00era vídeo, Oscar fue a foto y yo fui a vídeo, porque,
-
00:47:04pues, a final, con el vídeo, escaneas más rápido que
-
00:47:06con que
-
00:47:07tomando fotos
-
00:47:08Entonces, usando la técnica de pochot para poder convertir a fotogramas y encima seleccionar los mejores fotogramas, porque
-
00:47:18si, por ejemplo, has tenido un desenfoque,
-
00:47:20un rayo de luz que
-
00:47:20te ha entrado en la lente, te ha temblado el drone, pochot, ese es fotograma, no los tiene en cuenta
-
00:47:27Y entonces, uso pochot para exportar la secuencia de fotogramas, reality capture, para alinear las cámaras y luego pochot otra vez para procesar
-
00:47:35Entonces, como son varios archivos, por ejemplo, yo hago la primera parte de la fachada en perpendicular y le doy a stop
-
00:47:45Eso es un archivo, eso es una secuencia de imágenes
-
00:47:50Luego hago la otra fachada, otro archivo de vídeo, otra secuencia de imágenes
-
00:47:55Claro, cuando yo las exporto el programa, me puede nombrar fachada 1, y luego yo, si le puedo poner fachada 2, entonces, cada secuencia o cada grupo de imágenes, según el archivo de grabación, lo tengo nombrado
-
00:48:11de una manera
-
00:48:12Pero todos tienen, o sea, la primera fachada o el primer archivo de vídeo, sería fachada 1, 0, 0, 1, 0, 0, 2, 0, 0, 3, 0, 0, 0, 4
-
00:48:21La otra fachada sería fachada 2, 0, 0, 0, 0, 1, 0, 0, 0, 2
-
00:48:26Y, entonces, cada secuencia de archivos tiene un nexón común del nombre
-
00:48:31Pero, después, tú entiendo
-
00:48:34Sí, eso debería poderla ayudar, Guillermo, pero creo que
-
00:48:38No sé, estoy con, estoy con Pietro, que
-
00:48:40la duda que
-
00:48:41tiene
-
00:48:41Ah, pero adelante, sí
-
00:48:43La pregunta, la primera, después tú subes cada archivo, él va a elaborar, él ejunta, el otro siguiente, o le da todo
-
00:48:56Todo, todo, todo
-
00:48:57De hecho, lo que
-
00:48:58ha dicho el archivo bat
-
00:48:59del tutorial es un script, que
-
00:49:02tú le das doble clip, se lo dejas preparado como dice el tutorial, que
-
00:49:05hay que
-
00:49:05crear una carpeta que
-
00:49:06se llama imágenes, y el script lo hace solo
-
00:49:11Te abre el reality capture solo y se pone el alinear solo
-
00:49:15Entonces, en esa carpeta de imágenes es donde yo le he metido todas las configuraciones de las cámaras, o sea, las fotos originales, todo el escaneo que
-
00:49:26tú ya has hecho, se lo tiras a esa carpeta
-
00:49:28Y entonces, hay reality capture alinear
-
00:49:31Y la segunda pregunta es esto, esta
-
00:49:35Verdad, realmente, es importante hacer la toma como tú dices, en secuencia, cuando al final la orientación de las cámaras lo hace con los puntos de control
-
00:49:50No, es que
-
00:49:51ahí no hacemos igual diálogo, lo de los puntos de control
-
00:49:54Es que
-
00:49:54el reality capture frente a pocho, o sea, primero todo lo hacíamos con pocho
-
00:50:00A mí me refiero al sol apamiento
-
00:50:03Es solo que
-
00:50:04se reconoce
-
00:50:05Es un término confundido que
-
00:50:07igual talía o mario
-
00:50:09Yo porque
-
00:50:09sé lo que
-
00:50:10está hablando, pero no es por el sol apamiento
-
00:50:13Los puntos de control que
-
00:50:15él ha dicho, son cuando reality capture te separan los escaneos en componentes diferentes
-
00:50:21Mira, enseña el pantañazo de los componentes, mario
-
00:50:25Sí, claro, acá no
-
00:50:27Es simplemente que
-
00:50:28hay, la manera de interpretar los escaneos de reality capture, todas las imágenes que
-
00:50:32tú le has metido del escaneo, él, por su funcionamiento interno, ha hecho los componentes
-
00:50:38Entonces, de reality capture a pocho, no te funciona todos los escaneos
-
00:50:45A mí, por ejemplo, me separó la azotea, el jardín en cenital, me lo separó de la fachada a 30 grados
-
00:50:53Y entonces, o exporto una cosa o exporto otra
-
00:50:56Y los puntos de control son para fusionar esos dos modelos, no las vistas de la secuencia
-
00:51:02No sé si me explico
-
00:51:05No sé si me explico
-
00:51:06¿Cómo punto de control? Entiendo que
-
00:51:08lo
-
00:51:10El software también
-
00:51:11Aquí estamos viendo los componentes, este es la fachada, acá se va a haber enseguido el interior, correcto, o el techo
-
00:51:21¿Por qué hizo esto? Bueno, porque
-
00:51:23reality capture no entendió en algún punto cómo se unían las imágenes que
-
00:51:30se grabaron con el drone y las que
-
00:51:32se grabaron para la fachada que
-
00:51:34posiblemente fue otro drone o el mismo, ¿no? O si hicieron en diferentes momentos
-
00:51:38Entonces, ese es una posibilidad que
-
00:51:41tiene reality capture de que
-
00:51:44esto pueda pasar, ¿no? Y cuando ustedes meten esto a post -shot, también puede pasar
-
00:51:50Se ha decidido nada más que
-
00:51:51simplemente no se evidencia como lo hace reality capture, sino que
-
00:51:55post -shot, lo que
-
00:51:55hace es que
-
00:51:56toman las mejores imágenes
-
00:51:58Si ustedes meten 3 000
-
00:52:00imágenes, tiene la posibilidad de que
-
00:52:02tome solamente las mejores, aquí voy a ventar algunas, o bien le pueden decir ustedes que
-
00:52:09tome todas, completamente todas las imágenes, ¿no? Entonces
-
00:52:12Yo todavía no he probado a que
-
00:52:14sean todas, siempre le dejaba elegir
-
00:52:17Voy a aquí a meternos el que
-
00:52:19estoy metiendo, pero es un video
-
00:52:21No está
-
00:52:22Aquí lo que
-
00:52:22nos dice post -shot cuando yo rastro un video o un dataset de imágenes es que
-
00:52:27tengo 2475 imágenes en este video que
-
00:52:31acabo de importar, de las cuales post -shot, aquí me está limitando a 166
-
00:52:38¿Por qué? Porque
-
00:52:39tiene este valor que
-
00:52:40dice usar las mejores imágenes y nos permite limitarlo para que
-
00:52:44sea algo más ligero
-
00:52:45Si yo le digo usa todas las datasets, pues voy a utilizar el video completo con 2475, lo que
-
00:52:52sugiere que
-
00:52:53va a tardar mucho más, y posiblemente encuentro errores como encontró reality capture
-
00:52:58Pero en esta forma, utilizando las mejores imágenes que
-
00:53:02yo le puedo decir, pues sabes que
-
00:53:04el 50 por ciento no se en 1250 imágenes
-
00:53:08Vale, te dejan verdad, eso no lo había probado
-
00:53:11Ajá
-
00:53:12Entonces lo que
-
00:53:13hace post -shot es de ese video que
-
00:53:15yo metí que
-
00:53:16seleccione las 1200 mejores imágenes para que
-
00:53:19se puedan alinear que
-
00:53:21tenga esa validación
-
00:53:22Pero Mario, yo aquí, como lo he hecho con este tutorial, yo he exportado los mejores fotogramas de cada clip con post -shot y lo he llevado al script de reality capture, y aún así me ha
-
00:53:37hecho ese error
-
00:53:38Entonces no influye 100 por ciento de las mejores imágenes
-
00:53:42¿Correcto? ¿Qué es como paróptaro? El tiempo, ¿no? Claro, yo he hecho el filtro de que,
-
00:53:52y ya he tenido el error de separarme lo por componentes
-
00:53:56¿Qué es cuando yo te he decidido? ¿Qué es raro? Si solo tengo la azotea y ahí cuando me dijiste, ahí fui a la segunda capa de componentes, ya Ibi, la fachada
-
00:54:05Cuando de repente yo no puede ser, si yo le he lanzado las fotos de la fachada y se las ha soplado, y era claro, que
-
00:54:11lo ha hecho perfecto, pero lo ha hecho en otro componente
-
00:54:15¿Correcto? Sí, sí, de hecho, aquí también en el ejercicio que
-
00:54:20presenta esta persona, Oli, al final lo que
-
00:54:23decides es, bueno, meterle todas las imágenes a reality capture justamente para sacarle todo el valor, no, es meterle el dataset completo
-
00:54:31¿Por qué? Porque
-
00:54:32post shot tardaría mucho tiempo procesando todas estas imágenes cuando reality capture lo puede hacer
-
00:54:38Esto, al final, es ahorrar tiempo y tener más resolución en el point cloud que
-
00:54:44genera reality capture
-
00:54:46Al revés, Mario, si mira si te vas al tutorial de post shot con reality capture, da la cancelada y que
-
00:54:52tenemos la ventana de post shot
-
00:54:55Yo estuve leyendo, hay un punto en el que
-
00:54:58te lleva como a ver, no, arriba, arriba al todo, ahí te dice, a ver, bajo un poquito, aquí, dale a reality capture al link que
-
00:55:08te pone ahí abajo, ahí, setting, eso
-
00:55:11Aquí en algún lado, yo he leído que
-
00:55:14te dice que
-
00:55:15uses el tercio de fotos que
-
00:55:17tienes
-
00:55:18O sea, aquí se dan para lo del sol apamiento
-
00:55:21Yo más abajo he leído como que
-
00:55:22me da le más para abajo
-
00:55:24Creo que
-
00:55:25te hace una cosa que
-
00:55:26hago yo, que
-
00:55:27es seleccionar una columna en Windows, me da más para abajo
-
00:55:30Sí
-
00:55:32¿Cómo se hacía antes para poder seleccionar rápido una porción de imágenes? Y entonces ahí, ahí, esto
-
00:55:39Entonces, digo, pero entonces ya no necesita el dataset entero desde post shot
-
00:55:44Entonces, no, me estoy volviendo loco con esta parte
-
00:55:47No sé si hay que
-
00:55:48darle muchísimas imágenes o hay que
-
00:55:50darle lo mínimo para que
-
00:55:53se oriente
-
00:55:54Correcto
-
00:55:56Pues sí, de aquí en general estamos hablando, pues sí, justamente de esto, ¿no? De cuántas imágenes elegir
-
00:56:02Aquí hay dos opciones, bueno, tres
-
00:56:06Es una, metemos todas las imágenes y que
-
00:56:08post shot trabaje con todas
-
00:56:11Dos, le permitimos a post shot elegir las mejores a través de poderlo nosotros limitar en el software
-
00:56:21Y tres, como se hacía antes, ¿no? Que lo que
-
00:56:23dice Guillermo, a lo mejor yo tomo esta fila, esta fila, esta fila, aleatoriamente, y sonas que
-
00:56:29importo para poder reconstruir mi cual es alatorio, finalmente, ¿no? En los ejercicios, estos de Oli, la misma persona que
-
00:56:39hablamos, hace un video donde menciona cuantos es el mínimo para poder reconstruir un modelo
-
00:56:45O sea, es decir, un modelo de una pieza, una silla o cualquier otra cosa
-
00:56:50Y se va al límite hacia abajo, donde pues justamente con hasta 13 imágenes me parece, este puede reconstruir una pieza, ¿no? Lo que
-
00:57:00sugiere, que
-
00:57:02pues justamente a la mejor, el dataset completo no es necesario, porque
-
00:57:06tenemos un proceso de entrenamiento con IA a la hora de reconstruir el modelo, pues que
-
00:57:12pues justamente puede, digamos, que
-
00:57:16interpolar, ¿no? Entre una imagen y otra, de manera aleatoria, que
-
00:57:20en este caso post -shot nos ayuda con ese proceso, ¿no? Entonces, pues bueno, para no abrumar mucho más con conceptos de este tipo, acá dentro de la conclusión, aquí lo pueden revisar, pues bueno, justamente si
-
00:57:36quieren utilizar el método de Reality Capture, si puede aportarnos mucho mejoras en nuestro flujo de trabajo y mejoras en la calidad, pero pues sugiere adquirir nuevas habilidades para poder cocer estos componentes que
-
00:57:51pueden ser pequeños
-
00:57:52errores, como no suele pasar en PTG, creo que
-
00:57:55la mayoría tenemos alguna experiencia con eso, ¿no? Si no queremos
-
00:57:59lidiar con eso, pues, para trabajar el proceso completo con post -shot, lo cual, sin duda va a ser mejor que
-
00:58:11cualquiera de estos otros tres procesos, no más eficiente, pero sí mejor en cuanto a la calidad del modelo final
-
00:58:19No sé, aquí les dejo esta información y pues a la mejor, puedo ser como muy mejor, puede haber confundido en algo igual y me hacen alguna pregunta en este sentido, pero en resumen, mi conclusión sería,
-
00:58:35pues, tomen estas opciones cuando no tengan algún requerimiento
-
00:58:40muy estricto de lo profesional del modelo final, tomen post -shot directamente con todo el dataset metido ahí, este tal forma que
-
00:58:49ustedes puedan jugar con, vamos, la cantidad de imágenes que
-
00:58:56quieren que
-
00:58:57con las que
-
00:58:59quieren que
-
00:58:59programa trabaje, pero pues esto va a demandar tiempo, ¿no? El último escaneo que
-
00:59:03hice me duró 23 horas procesando en este programa y pues es un tiempo que
-
00:59:08habría que
-
00:59:09asumir, ¿no? Dependiendo de la calidad que
-
00:59:11busquen
-
00:59:12¿Cómo se dimensiona la calidad del post -shot? Pues, por un lado, el número de imágenes que
-
00:59:18aline y, por otro lado, la calidad del modelo que
-
00:59:22son estos case steps de los que
-
00:59:24hablaba también hace ratito, ¿no? Por lo general Guillermo mencionaba aquí que
-
00:59:30hay que
-
00:59:30tomar una porción de estas imágenes, ¿no? No todas, que
-
00:59:34sería como excesivo tomarlas
-
00:59:36A la mejor habría que
-
00:59:38identificar cuál es ese porcentaje, si es la mitad de las imágenes, si es un tercio, si es un máximo, por ejemplo, mil y hacer pruebas
-
00:59:47Y, por otro lado, esto es para generar el point cloud
-
00:59:51Y, por otro lado, para generar propiamente el modelo que
-
00:59:54son estos splats con los que
-
00:59:56básicamente jugamos al final y ese es el internamiento
-
01:00:01el programa, pues son estos k -steps de los que
-
01:00:05tenemos por acá, lo básico son 30 y acá nos tensiona el programa, bueno, pruebas que
-
01:00:13es holy, que
-
01:00:14más fíjanos, mínimas gines a 30 steps, 5 horas 23 con una 2070, 3070, perdón, una tarjeta 3070
-
01:00:28Entonces, ¿a qué se refieren esos 30 acas de los que
-
01:00:31hablan? Pues es justamente también una posibilidad que
-
01:00:35tiene posión de limpiar estas nubecitas que
-
01:00:38tienen por aquí y de que
-
01:00:40el modelo tenga mayor nitidez al momento de terminarse, esto ya es propiamente hablando del modelo, ¿no? Entonces, ¿cuánto más mayor sea ese número, menos basura de genera? Menos basura y más nitidez de genera
-
01:00:55Entonces, justamente el hecho de que
-
01:00:58se ahorra uno tiempo en esta parte nos permitiría crecer esto para poder usar mejor ese tiempo en tener mayor resolución en la malla, que
-
01:01:10es propiamente lo que
-
01:01:12jugamos ya dentro de 3 de vista, ¿no? Aquí tengo un ejercicio que
-
01:01:16lo voy a mostrar
-
01:01:18Y una duda antes de abrir el programa, cuando hacía, pues ahí los otros caesteps, hecha otro vídeo, por favor, ahí al potso
-
01:01:26Sí, voy a estar aquí otro vídeo
-
01:01:28Ahí, estos que
-
01:01:29ponen medio, el max es platformed, en medio, eso es mi diferencia entre ese y el otro, stop training after
-
01:01:39Sí, aquí digo acabar que
-
01:01:40no son muchos términos, habrá que
-
01:01:42meterse un poquito profundidad con esto, pero bueno, todo esta parte de acá arriba es lo que
-
01:01:48se suple en reality capture, esto es, son dos conceptos, la posición de las cámaras, son las cámaras y el point cloud
-
01:01:59Y esta parte de acá abajo es propiamente la construcción del modelo, o sea, aquí estamos hablando del gauján splatin, entonces aquí tenemos pues igual dos opciones, hacerlo en postshot, toma más tiempo máquina, pero tal vez
-
01:02:19mucho menos tiempo hombre, o bien usarlo con reality capture para eficientear esta parte, pues obviamente con el riesgo o con la necesidad de tener sus skills o esas habilidades en reality capture, para poder finalmente, pues
-
01:02:35aquí, si no tenemos de otra más que
-
01:02:37entrenar en postshot y tener este modelo final, entonces en relación al modelo, aquí es el único valor con el que
-
01:02:45podemos jugar, yo aquí he jugado desde 30 que
-
01:02:49es lo básico, le he puesto hasta 1000 o 5000, lo he dejado ahí a probar cómo me funciona, sin embargo, quería
-
01:02:56mostrarles cómo luce esto, ya na practica
-
01:02:58Oye, una cuestión, no sé si recuerden Mario que
-
01:03:04bajan, alguna vez nos habló, porque
-
01:03:06se va a popularizar, que
-
01:03:09si más no recuerdo menos que
-
01:03:10alguien me corrige, ese software se acaba en las posiciones de la cámara, me pregunto si usar no popularizar puede utilizar, ayudar a postshot o reality capture, ya ventándole desde un principio sin formación
-
01:03:30Correcto, suena bien, Marco, sin embargo, aquí se metan un poquito esto, quien guste, van a descubrir que
-
01:03:41se requieren dos datos, para poder utilizar la información que
-
01:03:45proviene de un programa como reality capture para postshot
-
01:03:49El primer dato, como les decía, es la posición de las cámaras, que
-
01:03:52esto es lo que
-
01:03:53sugieres con este programita, es encontrar la posición de las cámaras y sus coordenadas, pero luego necesitamos el point cloud, que
-
01:04:03son estos puntitos, que
-
01:04:04ya es la triangulación de puntos clave, en donde en esta foto, por ejemplo, la foto 1 y la foto 2, hay puntos que
-
01:04:14ven en donde mismo, la mejor una mancha, la foto 1 la está viendo y la 2 también, entonces se genera una triangulación y pues justamente obtenemos este point cloud, tal vez con este programa que
-
01:04:25sugiere de marco se pueda solventar esto y esto, pero nos quedaríamos
-
01:04:29todavía con esto, ¿no? Bueno, digamos que
-
01:04:34la problemática del point cloud como tal
-
01:04:38Entonces, sí, digo, a que
-
01:04:40probar, justamente, y recuerden, digo, toda esta parte de aquí pues es justamente para solventar un problema que
-
01:04:47existe ahorita, el cual tal vez mañana postshot saca que
-
01:04:50la versión 2 0
-
01:04:51y tenga un nuevo mecanismo de alineación, pues que
-
01:04:56pues finalmente nos haga olvidarnos de realidad y captura de momento, ¿no? Eso es otra posibilidad
-
01:05:02Quiero decir el papi huiza
-
01:05:06Muy bien, no sé si, espero que
-
01:05:09Mario no estás escuchando a pietro porque
-
01:05:12quiere que
-
01:05:13no le escucha
-
01:05:17No es un papi huiza y yo use diferente vez
-
01:05:24Lo crea tú
-
01:05:25No lo escucho pero bueno, si él me indica
-
01:05:28Vale
-
01:05:30Lo papi huiza, lo crea tú diciendo por cada al programa, cada columna eraia en la cual existe la fotografía
-
01:05:41Imagino que
-
01:05:42par para 100 300 más fotografías es una lucha demasiado
-
01:05:47Ya, chito, todo bien por ahí
-
01:05:49Sí, está hablando a pietro por eso
-
01:05:51Ah, te digo
-
01:05:52Sí, entendió
-
01:05:54Sí, que
-
01:05:54crees que
-
01:05:55es demasiado trabajo para el papi huizar, ¿no? Porque
-
01:05:58eres tú, que
-
01:05:59crea el archivo a satel
-
01:06:02Me preguntan, perdón
-
01:06:05No, no, no, estáis que
-
01:06:06está hablando a pietro por eso
-
01:06:08Muy bien
-
01:06:09El papi huiza, ante sale, ¿cuál do tú el programa software le dice cómo tomaste la imagen? Imagina la lucha que
-
01:06:17tú debes hacer para introducir todo los datos de la fotografía que
-
01:06:23tomaste, porque
-
01:06:24en la panorámica 360 tú pones solamente la columna y la raia
-
01:06:29Y ya, cuánta raia es cuánto columna
-
01:06:33Pero aquí es un caso diferente
-
01:06:36Sí, tiene que
-
01:06:37estar la razón, que
-
01:06:38digo la verdad
-
01:06:39Yo luces papi huizar hace mucho tiempo, pero si tiene razón, ya no está llegando ahí la imagen que
-
01:06:45si tú ponías columna y todo eso, no se ha servidado para esto, para nada
-
01:06:50Unca, listo Mario
-
01:06:53Ok, de acuerdo
-
01:06:56Entonces, papi huizar queda
-
01:06:59descartado, ¿no? Lo que
-
01:07:01entendí
-
01:07:01De acuerdo
-
01:07:04Entonces, voy aquí
-
01:07:05Cuando salen las ideas, que
-
01:07:06de repente una idea o una cosa loca, de repente es probar y una parte del proceso, igual se puede evitar
-
01:07:14Sí, claro
-
01:07:16Sí, siempre, siempre es posible, ¿no? Esa parte
-
01:07:19Y el otro no dice cosas locas, ¿no? No, no ha sido Marco
-
01:07:26El loco de Marco
-
01:07:28Bueno, les voy a mostrar aquí, este es un escaneo igual de un modelo 3D
-
01:07:36Esto no está hecho con fotos, sino está hecho con renders, pero para fines ilustrativos, me gusta mostrarles este porque
-
01:07:44se ve organizado, ¿no? Esto está hecho en 3D Studio Max, el modelo existe o en blender, por lo podrías hacer
-
01:07:51Este modelo está hecho en 3D y justamente aquí se lo inverso
-
01:07:56De a partir de un modelo que
-
01:07:58tiene Mesh, generé un Gaussian Splatting con el objetivo de más delante fusionarlo con el terreno real
-
01:08:06Pero, bueno, olvidemos esa parte de que
-
01:08:08es 3D y vayamos nos propiamente a revisar, como hace menos como fue capturado, ¿no? Entonces, una de las cosas que
-
01:08:19les quiero mostrar aquí, bueno, es que
-
01:08:20aquí la captura, al tener yo toda la libertad, en blender, un 3D Studio Max, para sacar fotos de donde yo quiera, de manera prácticamente con regla
-
01:08:32Aún así, pues, por el tiempo y demás, decidí generar un par de órbitas
-
01:08:36Recordemos que
-
01:08:37para Gaussian Splatting, pues, las recomendaciones en todos los papers que
-
01:08:43he visto, es parten de justamente generar órbitas, ¿no? Estas órbitas, lo que
-
01:08:51también sugeren es que
-
01:08:52a partir de ellas, pues, bueno, vamos a poder tener la información necesaria para linear justamente esta foto con la de abajo
-
01:09:00Y, ya más bien, de manera complementaria, lo que
-
01:09:03sugeren es, pues, poder tener imágenes de relleno, que
-
01:09:07en este caso fueron bien poquitas, este son estas de arriba, para poder obtener información de las zoteas o de los techos o de toda la parte de arriba, ¿no? Entonces, al mejor Guillermo, en tu caso,
-
01:09:20algo que
-
01:09:22se me ocurre basado en las pruebas que
-
01:09:25he hecho, es, pues, si o si, siempre, tener órbitas a diferentes alturas
-
01:09:30Y, a partir de eso, poder lo complementar con fotografías cenitales a 45, a 0 o los ángulos que
-
01:09:40necesites o te permita el tiempo
-
01:09:43Y, además, de eso, pues, bueno, también poder tener capturas de las fachadas, ya sea a nivel de piso o a nivel, justamente con Drone, pero estas órbitas podrían ser, podrían ser ese, ese camino para poder
-
01:09:59vincular una sesión aérea cenital con las fachadas, es decir, esa transición que
-
01:10:06pueda permitirnos tener lo mejor de ambas, ambas técnicas, ¿no? Ahí, por ahí, vitos escaneos y tienen que
-
01:10:13mucho que
-
01:10:14ver con técnicas de fotogrametría, lo cual es, los cuales funcionan muy bien para este método también
-
01:10:20Pero, ¿cómo sabes dónde me fijé también el problema, la punta que
-
01:10:25me diste del cielo, que
-
01:10:27pocho de generar el cielo a partir de los últimos píxeles del horizonte escaneado, y en la primera, el primer escaneo que
-
01:10:35hice no saque
-
01:10:36el horizonte y me salió marrón como mi giste de las montañas y todo esto
-
01:10:41Pero luego, al no ser un terreno como este, a la hora de escanear en órbita, me vi el problema de cómo coger el horizonte desde las diferentes perspectivas, ¿no? Entonces, cogí la fachada uno y la
-
01:10:59recorrí paralelo, pero orientado hacia la derecha
-
01:11:04Es como a 45 grados hacia abajo, a 45 grados hacia afuera y desplazándome paralelo a la fachada
-
01:11:13Para mí una cosa súper rara, pero era la manera de poder tener barrido uno el cielo a lo fondo con las diferentes paralajes, según voy a desplazándome paralelo a la fachada, luego vuelta por la misma
-
01:11:28fachada, pero en contra, menos 45 por decirlo a la manera y luego la otra fachada y la otra fachada
-
01:11:34Entonces, ahí a la hora de coger el cielo, también se me causó por una problemática
-
01:11:42Entiendo un poquito de lo que
-
01:11:44tengo que
-
01:11:45hablar aquí, Guillermo, esta sesión aérea la hizo marco ahí en un terreno
-
01:11:50Aquí vimos que
-
01:11:51prácticamente fue de las primeras y fueron un par de órbitas, prácticamente a la misma altura
-
01:11:58O no sé si está la hiciste tu marco o yo, no me acuerdo
-
01:12:02En fin, aquí lo que
-
01:12:03se buscaba es justamente obtener este terreno para poder semblar un edificio ahí
-
01:12:09Finalmente, poder tener un modelo 3D, ¿no? Y de lo que
-
01:12:12ahora la Guillermo ahorita es de este efecto que
-
01:12:15está sucediendo aquí donde en post shot nosotros le podemos indicar al programa a la hora de procesar que
-
01:12:23nos construía o nos completa un cielo falso, es decir, que
-
01:12:27a partir de la información que
-
01:12:29tengamos aquí en el perímetro del modelo hacia arriba, pueda construir lo que
-
01:12:35sería una esfera que
-
01:12:37es como el hemisferio o el 360 del planeta, ¿no? Que estamos teniendo en este modelo 3D algo parecido a esto, ¿no? Entonces aquí podríamos tener la esfera completa donde tomando ese último color del pixel completa
-
01:12:53que
-
01:12:54el cielo es azul y tomando el pixel de los límites del piso y completa que
-
01:13:00el piso es gris o café, ¿no? Hoy te lo que
-
01:13:03menciona Guillermo es que
-
01:13:04a ti tomó el pixel de las montañas cafés y te lo puso más ron, ¿verdad? Correcto, eso es correcto
-
01:13:14Entonces yo aquí lo que
-
01:13:16ya probando con 3 de vista descubrí también que
-
01:13:20tal vez no sea tan buena idea el complementar el cielo completo, sino que
-
01:13:26en 3 de vista podamos tomar nosotros manualmente el color del horizonte o del cielo y en 3 de vista ponerse de ese color para poderlo complementar
-
01:13:36¿Nos 3 de vista en Gaussen esplatin te dejaba? Ahora te les muestro mi ejercicio, ¿no? ¿que
-
01:13:43dice con esto? Mario y la posibilidad de una 360 de una fotografía 360 reemplazando ese espacio? Sí, todavía 3 de vista a 3D es como una HDR, sí, también es una posibilidad, ¿si? ¿Qué es justamente?
-
01:13:57Ahora te tomamos el color del cielo y se lo ponemos de fondo a 3 de vista o podemos poner una fotografía de fondo a 360 justo
-
01:14:09También eso es una posibilidad, ¿no? Entonces aquí bueno en esta imagen tendríamos que
-
01:14:14terminar de limpiar todo lo que
-
01:14:18se ve aquí para poder quedarnos
-
01:14:20únicamente con lo que
-
01:14:21se necesita, limitar la cámara para no poder nos desplazar demasiado porque
-
01:14:26vamos a empezar a haber ruido, sino quedarnos
-
01:14:29en el lugar que
-
01:14:31nos interesa que
-
01:14:32es este terreno, ¿no? ¿la mejor? Y a partir de aquí bueno limitarlo, ¿no? Pero sí lo que
-
01:14:38mencionaba Guillermo es tiene que
-
01:14:39ver con esto, habrá ocasiones en que
-
01:14:42nos funcione y habrá ocasiones que
-
01:14:44como dice el león pues bueno podamos limborrar el cielo y mejor poner un 360 en 3 de vista o un color, ¿no? Mario incluso no lo he hecho pero se me ha acabado ocurrirte que
-
01:14:55tú podrías hacer una feira digamos 3D y rellenar y como la superficie con una imagen 360 para que
-
01:15:06en fondo el modelo estuviera con ese límito, digamos
-
01:15:11Sí, es una posibilidad de aquí mezclarlas, te refieres mezclar un modelo 13 del cielo con un modelo, te refieres? Claro, como con una espera que
-
01:15:18tuviera por dentro una foto 360 para que,
-
01:15:22en el fondo, el infinito, digamos, el fondo fuera un cielo hecho a parte
-
01:15:29Sí, eso es una posibilidad
-
01:15:30Sí, me voy a ocurrir por ahí, pero bueno, creo que
-
01:15:34lo que
-
01:15:34hablamos aquí es que
-
01:15:35en lugar de tener un fondo negro, podríamos tomar, no sé, el horizonte del cielo, pensemos que
-
01:15:42el horizonte es este color y vean cómo se funciona, ¿no? Esta es una posibilidad 1, que
-
01:15:48es mala ligera y es la que
-
01:15:49yo trataría de tomar
-
01:15:50Incluso me sirve para ver errores ya subir aquí un 360, que
-
01:15:59es abrir la panorámica, que
-
01:16:03a la mejor fue tomada con el drone a cierta altura y nos pudiera permitir pues fusionar un poquito mejor o tal vez de otra forma creativa, lo que
-
01:16:15sería nuestro modelo con esa fotografía, ¿no? Vean aquí tenemos la panorámica, déjeme limitar la cámara para que
-
01:16:23lo puedan visualizar, ahí está, ¿no? Tendríamos algo como esto, tomada cierta altura, son posibilidades, ¿no? El poder construir esto fielmente en Gaussian Splatting, ponerle un color o tener esta fotografía esférica, ¿no? Que pueda hacer empalmarse
-
01:16:43con nuestro modelo ¿cuándo haces zoom ahí, hace un zoom? Sí, lo tengo limitado
-
01:16:50No, no, pero ves el fondo que
-
01:16:51no responde
-
01:16:53Ah, no, claro, esta fotografía está tomada en el piso 30, sí, pero es que
-
01:16:58esta técnica yo también la se me ocurre y tiene limitación que
-
01:17:01no interactuar el fondo, entonces opones solo una raro, León, perdón, tengamos la esfera 3D, ahí sí sería interactiva, pero son soluciones creativas, ¿no? Que podríamos tener ahí en un nuevo caso
-
01:17:24O cuando le metan a la opción de Gaussian, cosas que
-
01:17:28tiene en la partada 3D 3D vista, que
-
01:17:30es la de entorno está, que
-
01:17:32creo que
-
01:17:34está más trabajada en el otro lado, yo creo
-
01:17:37Ok, son posibilidades, ¿no? También igual para atender como esto de lo que
-
01:17:43hablaba, ¿no? Hablando de los case steps, voy a cerrar esta, también al momento de reconstruir este modelo, pensemos que
-
01:17:53esto me lo traje de Reality Capture o lo hice directamente aquí en post shot, ¿no? Este imagen está generada con 30 case steps, estos pasos, vean la diferencia, ahorita voy a abrir una cotina 400, ¿no?
-
01:18:09En este modelito, pues tiene este tipo de resolución, no sé si lo cansan a apreciar, se ve un poquito bluriado, sobre todo aquí en el acceso
-
01:18:19Para lo que
-
01:18:20yo necesito, que
-
01:18:21es verlo a esta distancia, es suficiente, es como la resolución de impresión para un espectacular, si yo requiero más resolución o verlo un poco más nitido, pues se podría trabajar con una nube de puntos más
-
01:18:34densa y subirle al entrenamiento en post shot, o bien simplemente subirle a esto, ¿no? Voy a abrir aquí la imagen de 400, este modelo que
-
01:18:46voy a abrir ahorita es de 400 case steps, si alguien tiene duda donde se ajusta eso ahorita aquí lo proyecto, ¿no? Es la misma información, las mismas cámaras, pero en este caso lo dejé más tiempo
-
01:19:00entrenando, con este factor, entonces pues si abro una imagen y otra, podemos ver, no sé si por el como comparto pantalla, pueda ser esto más visible, el como uno tiene más densidad que
-
01:19:20otra, que
-
01:19:21otra se nota la diferencia, sí, imagino que
-
01:19:24la transmisión nos quita algo, pero si se si vemos diferencia entre uno y otro, así esto es bueno, esto se soluciona, pues justo aquí no, o más que
-
01:19:35solucionarlo, pues es lo que
-
01:19:36ustedes tienen en el valor al usar post shot de poder controlar justamente esta información, ¿no? Que es este punto, ¿no? Uno es con 30, el otro lucé con 400, pero si ustedes están dispuestos a esperar
-
01:19:48más tiempo y a procesar, podrían hacerlo con mucho más, ¿no? Para tener más nítides dentro de lo que
-
01:19:56es este post shot, ¿no? Primero, la base voy a preguntar sin cerrar eso, vuelvo a preguntar si lo haces todo en post shot, el 3 000
-
01:20:07s en max splat count, ¿en qué influye también en esta nítide o solo de abajo? Sí, me parece, digo, habrá que
-
01:20:16revisarlo aquí en la parte de ayuda, pero me parece que
-
01:20:20esa parte va enfocada al point cloud, justamente a los puntos, entonces posiblemente aquí podamos controlar si lo que
-
01:20:30hace bien reality capture con la parte de darnos mayas más densas, no lo sé, es que
-
01:20:38yo toca o ese y con ese es donde me cambian los tiempos de procesado
-
01:20:42Ajá, otra cosa que
-
01:20:43te puede cambiar los tiempos aquí, pues bueno, por un lado, son la cantidad de imágenes, ¿vale? Por otro lado, si se fijen aquí, mis imágenes posiblemente las captura en 4K con midron, ¿no? Pero post shot
-
01:20:58me está sugiriendo que
-
01:20:59le reduzca la calidad de 1 600
-
01:21:01píxeles en lugar de usar las full, o sea, completo con la resolución completa
-
01:21:04Yo ahí ya la adapté, la adapté para que
-
01:21:07ya estuvieran de manera fuente, estuvieran adaptadas a 1 600
-
01:21:10para que
-
01:21:11no, no cargarle más trabajo por eso
-
01:21:13posiblemente sea una solución, ¿no? Entonces, si yo quiero usarlas en 4K, bueno, aquí le quito esta función y va a tomar todas las imágenes de midron en la resolución máxima que
-
01:21:27podría ser 4K o la original, ¿no? Entonces, yo aquí puedo ayudarle a optimizar cosas, este post shot, pues bajando la resolución y la cantidad de información de esto
-
01:21:38Este último, pues como bien dices, este también tengo mis dudas, habría que
-
01:21:41investigar aquí en Help para ver este que
-
01:21:44se refiere, pero quiero pensar que
-
01:21:46como lo que
-
01:21:47estamos supliendo con Reality Capture es por un lado la lineación de cámara, así por otro lado, la nube de puntos, que
-
01:21:53entre más densas y hasta nube de puntos, mejor va a ser nuestro splat
-
01:21:58Entonces, este posiblemente el subir aquí, genera una nube de puntos más densa, pero pues recordemos que
-
01:22:05lo que
-
01:22:05me lo que
-
01:22:06peor hace post shot, pues justamente en tiempos es eso, ¿no? Entonces, por ejemplo, había jugado a ponerle a 1 500,
-
01:22:182 000,
-
01:22:19creo que
-
01:22:19ha sido el último, que
-
01:22:20ha sido el que
-
01:22:20más contento me ha dejado, pero no había tocado el de abajo
-
01:22:24Entonces, o si le había subido hasta 60, pero no a 400, entonces voy a hacer la contra, voy a ponerle Max splat a 1000, que
-
01:22:32sé que
-
01:22:32me ha ido ligero y abajo le voy a poner 400, a ver, ese descompensación a la contra, a ver qué resultado me da
-
01:22:41Sí, mirad, ahí mismo lo que
-
01:22:42pienso, digamos que
-
01:22:45de ese valor es justamente esto que
-
01:22:47estás viendo aquí, no, esto es como algo similar lo que
-
01:22:51sucede con el point cloud, aquí tenemos un point cloud que
-
01:22:54tal vez no sea muy denso, al subirle ese valor podríamos tener lo más denso como sucede con real eticaptor, y por lo tanto, pues tener un splat, obviamente mejor reconstruido, ¿no? Pero son pequeños
-
01:23:09valores que
-
01:23:09tal vez, si pensamos que
-
01:23:12se va a ir a 3 de vista, me he dado cuenta que
-
01:23:143 de vista comprime, vean aquí la nivel de compresión, eso es, pues digo, está muy mal todavía, no sé qué está sucediendo, y entonces mi siguiente prueba aquí va a ser el día de hoy es
-
01:23:25justamente con este modelo a 400 case steps para ver, pues justamente si me mejora, ¿no? Algo que
-
01:23:32dice 3 de vista que
-
01:23:33tenemos que
-
01:23:34cuidar lejos del peso de nuestro modelo, pues es justamente el número de gaushans que
-
01:23:40tenemos, ellos mencionan que
-
01:23:43un millón es como que
-
01:23:44lo máximo que
-
01:23:45deberíamos de tener permisible para tener un interactivo que
-
01:23:49esté fluido, pero si yo importo aquí mi versión de 400, acá me arroja alrededor de 3 millones, que
-
01:24:01aún así no lo entiendo por qué, pero 3 de vista lo comprime, entonces, sí tal vez tenga que
-
01:24:08ver con esta resolución dinámica, tal vez tiene que
-
01:24:11ver con estos esferical harmonics, que
-
01:24:14ahorita ellos están como comprimiendo más, esto básicamente es el canal RGB, pues entre más información, pues digamos que
-
01:24:26el momento de rotar el modelo, podemos tener más calidad de los reflejos y los brillos y demás, esto nada más no lo da controlable, post -shot, luma lo genera por default, Policam no lo impregna y
-
01:24:39tampoco quiere y de momento, pero bueno esto va a cambiar en algún punto, entonces chip de acá de post -shot, pues lo que
-
01:24:50les recomiendo digo si vamos a trabajar de este lado de post -shot directamente, es así como un repaso de esto, es decidir si queremos
-
01:25:01usar todas las imágenes o una porción, yo recomendaría que
-
01:25:06usáramos, pues no sea la mejor un máximo de 5 000
-
01:25:10imágenes o el 50 % dependiendo de cuántas imágenes sean, son valores que
-
01:25:15al lanzo al aire, pero tiene que
-
01:25:17ser como una parte, la mejor no usar todas porque
-
01:25:20sería demasiado, la otra parte es, pues decidir si quieren usarlos en máxima resolución, esto sugiere también que
-
01:25:30su tarjeta de video va a sufrir más y la memoria RAM, consume demasiado como se han dado cuenta, entonces a la mejor, pues dejarlo en un promedio si sus fotografías son 4K, tal vez ponerlas en
-
01:25:442K, tal vez a la mitad o tomar algún número depende lo que
-
01:25:48quieran hacer, si esto va para cine definitivamente lo dejaría al máximo, si esto va para web posiblemente me quede
-
01:25:57con la sugerencia que
-
01:25:58me hace post -shot por los parámetros que
-
01:26:00tiene, este de aquí no lo tocaría de momento pero si investigaría que
-
01:26:05trata, como siempre, este valor de este lado lo que
-
01:26:12hace es que
-
01:26:13nos genera o nos completa el cielo que
-
01:26:16es de lo que
-
01:26:16hablaba Guillermo, de que
-
01:26:17toma el perfil del último pixel del horizonte y te completa el cielo en esfera falsa, hecha en 3D pero dentro del gauchan splatting, entonces pues aquí pueden ustedes probar que
-
01:26:30les es más útil, si conserva la esfera o dejarla finalmente si la ponen, después la pueden quitar o si no la ponen, pues va a no sería completar con 3 de vista, este valor no hace
-
01:26:43falta explorarlo pero parece que
-
01:26:45está muy interesante aquí al momento de que
-
01:26:483 de como como post -shot limpia los modelos de las rebabas o de las nubes que
-
01:26:53están en las orillas, esto sería interesante explorarlo porque
-
01:26:56es prácticamente una máscara que
-
01:26:58te genera con base a lo que
-
01:27:00procesó post -shot y pues nada por último la parte de la nitidez que
-
01:27:06para mí si es algo muy ligero pero 3 de vista puede aguantar más, entonces ahorita yo voy como sobre 400 dependiendo la cantidad de imágenes que
-
01:27:18metamos, aquí puse 400 imágenes y 400 me funcionó muy bien pero esto es la nitidez que
-
01:27:26ustedes pudieran tener en ese modelo final y la iglesia está que
-
01:27:29nos compartiste, la hiciste 400, la iglesia, déjame ver si lo tengo por aquí, les muestro, ¿a cuánto está lobrada? aquí está, a ver si me da el registro de los parámetros, que
-
01:27:45tenemos, y bueno algo que
-
01:27:47van a ver ahorita es que
-
01:27:48esta como parte de lo último que
-
01:27:51les quiero mostrar en relación a esto, es que
-
01:27:53la aquí en post -shot el modelo se ve muy nítido, o sea aquí intenté limpiarlo con formellón necesitaba, pero en 3 de vista cuando me lo llevo para allá esto se ve fatal, no sé qué
-
01:28:07tiene que
-
01:28:08ver, cuando meto este modelo completo 3 de vista como que
-
01:28:12hace un promedio de todo o tiene un máximo desplaz para mostrar de tal forma que
-
01:28:19le quita calidad todo parejo, no, si yo me quedo
-
01:28:22únicamente con la iglesia pequeñita
-
01:28:24controlable me la deja mucho más niggida, no sé qué se deba, esto está hecho, no sé si me da aquí los parámetros, no arriba creo que
-
01:28:40tienes que
-
01:28:40seleccionar arriba en la, a ver si es aquí son 450 k steps, 3 mil por defecto le habías puesto de k steps de k spots, eso lo deje por default y aquí las fotos las dejé
-
01:28:53también, no las pusé reducidas y no las dejé en su total, esto tomó 22 horas, más o menos, vale, bueno, me taré a esta abajo en el training after, vale, esta parte de aquí no de
-
01:29:08los k steps, la había limitado tanto, o sea creo que
-
01:29:12de 30 por defecto un día hice una prueba 60, pero no mucho más, hasta 450 para este nivel de detalle me interesa practicarlo, sí, pero me han aquí también el cielo, está, lo deje incompleto, no,
-
01:29:29no, no active la opción de que
-
01:29:31generara la esfera, cuando la activaba, en este caso me generó un error, sí, en el mismo, o sea, para el tema de los procesos en pocho, si yo ya, yo lo he hecho todo en pocho,
-
01:29:42el último ejemplo, la última práctica la hice ya toda, toda en pocho porque
-
01:29:46me estaba dándolo de los componentes de realítica, entonces si yo abro ahora el proyecto, que
-
01:29:53lo he hecho con una configuración de 30 k steps, el mismo proyecto ya ha lineado las cámaras, material fuente y lo quiero volver a entrenar, es posible, o tengo que
-
01:30:04volverla a hacer de cero
-
01:30:06Es algo que
-
01:30:07me falta probar, justo por ejemplo aquí, si yo aquí receteo esta parte, que
-
01:30:13es el Radiance Field, no sé que
-
01:30:17me vaya
-
01:30:18no lo he hecho porque
-
01:30:19pues he invertido mucho tiempo en este momento
-
01:30:22Pero si le pongo aquí recetear, lo voy a poner que
-
01:30:28sí, voy a ver si empieza desde la imagen, o únicamente pues desde lo que
-
01:30:34sería
-
01:30:36hay abajo, si pone algo de alinear en las amaras, ya estamos aliados
-
01:30:40Es que
-
01:30:40empezamos de cero, claro
-
01:30:43Sí, justo lo que
-
01:30:45sucede, ¿no? Entonces, y compuno es muy potente
-
01:30:49Lo digo porque
-
01:30:50sí que
-
01:30:51hemos visto que
-
01:30:52potso de repente te deja pausar el entrenamiento y siluarlo después, eso sí te deja
-
01:31:00Sí, sí
-
01:31:01Y sin recetear el Radiance Field, han probado cambiándolo los 7, o no se puede
-
01:31:07Tal es como pensando que
-
01:31:11si le subimos, continúe, lo regresa de nuevamente, lo acabo de regresar
-
01:31:16Sí, lo que
-
01:31:17sugiere es honest que
-
01:31:19aquí le ponga 500, a ver si continúa avanzando
-
01:31:25Pero hay como un botón que
-
01:31:26diga, aplica algo, ¿no? O tal vez, ¿quién está? A ver, vamos a ver
-
01:31:31Me dice que
-
01:31:33perdí un video, ¿no? Si le meten lo que
-
01:31:35tengan a esta computadora, pero es una posibilidad, ¿no? Empezar como explorar con cosas, ¿están sencillo el programa que
-
01:31:41pues bueno? Sí
-
01:31:42Seguramente la experiencia del usuario para encontrar
-
01:31:46Pero por eso, como diga tan sencillo, me parece, no hay comprobado en cuando le rompes los órdenes, a ver si reacciona o hay que
-
01:31:54volver a empezar a cero porque
-
01:31:55estaría muy bien
-
01:31:56Si yo ahora ya he hecho esas 20 típicos, ahora también que
-
01:31:59tuve el ordenador para un resultado decente, poder decir ahora, oye, voy a ver mismo proyecto, a ver cómo me lo mejoras a 400, de 60 a 400, pero no tener que
-
01:32:12hacer otra vez el alineado de imagen
-
01:32:16Ahora, pensando en el flujo de trabajo, por lo que
-
01:32:18entiende lo que
-
01:32:18estamos tendrán ustedes, lo ideal sería partir con algo muy ligero para ver cómo se ve, porque
-
01:32:24se apruebas, navegar y después irte a la opción más pesada, ¿no? Lo quites con un objeto, en vez de con un edificio
-
01:32:32Sí, o con el mismo edificio en el dataset, subirlo en lo que
-
01:32:37mejor no se salen a Madrid, allá escanean, suben el dataset y en lo que
-
01:32:42llegan a su ciudad, pues bueno, ya tienen ahí, o está la mejor, este es un resultado preliminar, hecho en Kiri, en Polica o Luma, para que
-
01:32:51puedan ir explorando con que
-
01:32:53se pueden encontrar antes de ingresar a PostShot, ¿no? La opción de Realiti Capture, digo, es una gran opción, este de momento leses las recomendarías, si no quieren de meterse demasiado, cuando tienen algunas órbitas sencillas, o
-
01:33:08sea algunas órbitas tomadas en su proyecto, digamos que
-
01:33:11tomadas de una vez, de aquí creo que
-
01:33:14es muy poco probable que
-
01:33:16tengan algún error y que
-
01:33:18eso, en verdaderamente les aporte un avance en tanto en tiempos como en calidad de su proyecto final, pero si lo hacen en varias partes, pues bueno, ¿qué sepan que
-
01:33:30pueden enfrentarse? Yo me tomo como deberes lo que
-
01:33:34he dicho, lo de prepararle el material a Realiti Capture, a ver si como tengo varias fases y varias tomas, y varias técnicas, voy a ver si nombrándole en orden, los escaneos, se lo ponemos fácil y
-
01:33:52Realiti Capture lo interpreta mejor
-
01:33:56Voy a ver
-
01:33:58Mario, ¿te puedo hacer una pregunta? Sí, adelante, claro
-
01:34:02Cuando vemos este desarrollo de los transplata, no hemos dado cuenta como que
-
01:34:06avanza dependiendo como las áreas como interés de desarrollo, porque
-
01:34:09por ejemplo, en un comienzo se habla mucho de la posibilidad de escanear los autotransparentes y autransplata como que
-
01:34:15entró como a solucionar en parte de eso, pero también yo está obviendo el Indo Paper que
-
01:34:20hablan de los problemas, no sé, desachad, intermitente, optimización de imagen, el tema de grabar movimientos, el tema del blur, pero yo tengo una problemática puntual que
-
01:34:29creo que
-
01:34:29a todos nosotros nos preocupen o interés, es como ves el tema del escaneo de interiores, o sea, no orbitar un objeto sino que
-
01:34:39al revés como un orbitación inversa, como si tú estás parado, registrar entre 3D al revés tuyo, para poder, por ejemplo, capturar una habitación luego otra y ocuparlas como modelos para después hacer tu resto de trabajo
-
01:34:52y hacer entrevistas en Unreal Engine o lo que
-
01:34:54sea, porque
-
01:34:55por ahora, claro, capturar objeto ya sea pequeño
-
01:34:57o un objeto que
-
01:34:59lo orbitas en un drone está bastante solucionado, pero cómo ves tú el desarrollo para escaner y periore? Sí, por ahí les compartía la ocasión anterior, un caso de una taquería
-
01:35:12hecha por Google, me parece pincalifornia, es un restauranzito pequeño
-
01:35:18donde la cámara entraba y salía, prácticamente era un camarorfo que
-
01:35:22entraba y salía por la taquería
-
01:35:24y ya tenía todo el escenario interior completo, la tecnología que
-
01:35:29ellos usan es Nerf, es esta otra, pero yo creo que
-
01:35:33sí, se va bien caminado para allá, ellos usan esta tecnología, es un proceso muy simple y obtienes un espacio levantado en ir venir, prácticamente, si omitimos que
-
01:35:47Google procesa con cantidad de computadoras, eso no será un tema para ellos sino prácticamente el que
-
01:35:53alguien entre con una mochila se expore los rincones y salga, ni siquiera hablar de este tipo de aparatos, algo mucho más sencillo como una cámara 360, ¿no? La promesa de 3dista que
-
01:36:07nos dio en Granada, si ya no sé cuánto tiempo atrás, pues como menos eso, o sea, nos decían que
-
01:36:13tuvo una cámara 360 y vos apuedes generar modelos, yo creo que
-
01:36:16a todos nos ocurrió, nos inventamos en ese momento de que
-
01:36:18tuve la cámara 360 y vos adnerve el modelo de esto de la dictación y hasta el momento veo que
-
01:36:24es lo que
-
01:36:24aún está más lejos
-
01:36:26Pero Luma lo que
-
01:36:28he dicho, yo Luma te deja subir foto 360 y no sé si vídeo, si no te deja vídeo, le subes una secuencia de fotogramas que
-
01:36:35irretangulares, el Luma
-
01:36:37¿Y cómo estás Luma, mira? ¿Un interior ahí? En este vídeo Luma
-
01:36:42¿Cómo? Me he perdido
-
01:36:44Luma sin te deja subir vídeo 360
-
01:36:46Eso por eso digo que
-
01:36:47lo que
-
01:36:48decía León del 3dista se hace con Luma de momento
-
01:36:52Sí, de hecho no sé si sabían que
-
01:36:54Luma tiene una solución justamente para interiores, es lo mismo, estos son splatting, pero con un vídeo
-
01:37:00Pero Mario, yo estuve mirando esta justo el fin de semana pasado y me parece algo que
-
01:37:06nos hace falta, porque
-
01:37:08esto lo que
-
01:37:09te hace es un splatting y luego te genera un vídeo automatizado, pero no te deja meter mano, en cambio si tú te vas a Luma, te genera el Gaussian splatting y luego tú animas la cámara
-
01:37:21como quieres
-
01:37:22Y además por eso te está cobrando
-
01:37:24Correcto
-
01:37:25Sí, pero yo la tengo aquí
-
01:37:27No, no, mira
-
01:37:27Sí, de momento no, de momento es correcto
-
01:37:31Aquí tienes un vídeo capturado espacialmente que
-
01:37:34después puedes hacer reframing o enteresar las tomas o hacer las más rectas o algo
-
01:37:40A mí no parece que
-
01:37:41esta parte ha sido más comercial, más que
-
01:37:43laboral para nosotros
-
01:37:46Creo que
-
01:37:46es más comercial
-
01:37:47Por lo que
-
01:37:48yo dije, yo le pasé una prueba esto y digo, y pero si quiero en HD me va a cobrar y tal, lo vi como más comercial, más para el usuario final
-
01:37:58Final
-
01:37:59Sí, pero bien caminado por aquí
-
01:38:00Entonces, así como que
-
01:38:01creo que
-
01:38:02esta tecnología que
-
01:38:02usa Google, que
-
01:38:03aquí proponía Flytrux de Luma, está lineado a eso nuevo, pero creo que
-
01:38:103 de vista todavía en este software que
-
01:38:12va a lanzar los próximos 2 meses, pues sí prometí algo como eso, que
-
01:38:16con una cámara 360, que
-
01:38:18incluso algunos de los moderadores decía, incluso les vamos a decir que
-
01:38:23cámara usamos o cual les vamos a recomendar para que
-
01:38:25hagan ese
-
01:38:27Yo de hecho le os hago aquí el spoiler de que
-
01:38:30justo hoy les he preguntado, que
-
01:38:33José en Facebook ha dicho varias veces 3 de vista extens, 3 de vista extens y digo, lo están nombrando como que
-
01:38:43fuera de la familia y no lo han sacado
-
01:38:46Entonces le digo, oye, ¿habéis nombrado varias veces lo de extens? Hay algo, algo que
-
01:38:50nos podás decir de que
-
01:38:51va la historia, porque
-
01:38:53nos estamos comiendo aquí la cabeza que
-
01:38:55sigo con créditos, con nube, con procesamiento, algo en local, no tenemos ni idea gratuito de pago
-
01:39:02Y luego le he dicho, oye, con Mario, nos reunimos con José hace casi un año
-
01:39:08Podríamos volver a tener un contacto con José y que
-
01:39:11nos haga aquí en intimidad algún como va la cosa, ¿no? De este tipo de cosas que
-
01:39:17estamos hablando
-
01:39:18Es increíble también esa parte, ¿no? Ver para dónde va, pero yo creo que
-
01:39:22sí, es cuestión de tiempo todo
-
01:39:25Basta ver que
-
01:39:26aquí dice beta, entonces pues sí, eso es algo que
-
01:39:30todavía no esté maduro, ¿no? Sí, aquí es algo que
-
01:39:35me preocupa de momento, 3 de vista, es que
-
01:39:36vean, acá yo tengo estos elementos medianamente nítidos, este modelo tal cual lo importo a 3 de vista en este ejercicio que
-
01:39:47está por acá
-
01:39:48Sí, y vean, es exactamente el mismo modelo
-
01:39:51No sé qué sucede
-
01:39:52Que 3 de vista lo comprime
-
01:39:55O sea, no sé si prorratea el total de la escena y lo limita no sea un millón de splats
-
01:40:00Yo reportaría, Mario, para ver que
-
01:40:03te digan específicamente con tu proyecto
-
01:40:06Yo le mandaría un reporto
-
01:40:07Con esa toda imagen, ¿no? Sí, este proyecto se lo mandaría a ellos y te lo admira porque
-
01:40:12de repente le meten una actualización y te va a revelar
-
01:40:16O no, o no
-
01:40:17O sea, no
-
01:40:18Yo creo que
-
01:40:20ya están comprimiendo mucho, y es la razón por la que
-
01:40:22no puedes subir archivos comprimidos, porque
-
01:40:24no pueden volver a comprimir, yo creo que
-
01:40:26tiene que
-
01:40:26ver
-
01:40:26¿Este lo hice con la beta al nivel de Mario o qué? Este ya es con el nuevo, con el último Java
-
01:40:31¿Qué hice? Prod abrir el proyecto con la beta porque
-
01:40:34la beta le apega una actualización
-
01:40:37Ahora hubo un momento en que
-
01:40:38estuvo el oficial por delante, pero ahora vuelta a estar en las actualizaciones últimas en las a metida a la beta
-
01:40:45Intenta hacerte una copia del proyecto y la abre en beta a ver si al exportarte hace lo mismo
-
01:40:50Sí, aquí, por ejemplo, lo que
-
01:40:52hice es que
-
01:40:52este iglesia la recorte, la exporte tal cual, o sea, sin hacerle nada
-
01:40:57Y en este caso, creo que
-
01:41:00aquí lo voy a cambiar
-
01:41:03Creo que
-
01:41:03sí mejoró mucho, porque
-
01:41:05tenemos un modelo más pequeño
-
01:41:06bueno, este es el modelo 3D de lo Poli, pero el pequeño
-
01:41:09sería esta emas bien
-
01:41:11Este es un Gausham pequeño,
-
01:41:12entonces aquí, aquí no hubo compresión del todo, ¿no? Lo hice por el número total de Splats
-
01:41:19Yo creo
-
01:41:20Y eso que
-
01:41:20está como limitado, ¿no? La extensión tiene más, hace más Splats, claro
-
01:41:25Así es, aquí tengo una versión mediana, o sea que
-
01:41:28le borre todo lo necesario en el horizonte, las montañas y parte de eso y también se comporta mucho mejor
-
01:41:37Pero ahí se ve que
-
01:41:39sigue como precargando, ¿no? Depende como que
-
01:41:43es una resolución dinámica
-
01:41:44Quiero pensar
-
01:41:45Pero sí, no me gustó mucho que
-
01:41:48el modelo completo, lo comprimiera tanto, que
-
01:41:51entiendo que
-
01:41:52esto en línea va a ver todo lo que
-
01:41:54está reencargar
-
01:41:55Y llevamos como cinco segundos, diez segundos a lo vez
-
01:41:59No funcione, ¿no? A la mejor no lo quiero tener en línea, sino de manera local, pero que
-
01:42:04esto se pudiera ver ni qué
-
01:42:07Este es como parte de este esquema,
-
01:42:12¿no? Entonces, pues no sé, hasta aquí, si ya que
-
01:42:17nos fue bastante tiempo, tengan algunas, algunas otras comentarios, una pregunta o algo puntual
-
01:42:35No sé si no lo escucho
-
01:42:37Mira, yo sí, este muestro rápido, un sí, claro
-
01:42:41Y cómo estaba escaneando en esta
-
01:42:48Voy a dejar de compartir
-
01:42:51Este junto con Oscar, en el Rocodromo, esto que
-
01:42:58hablaba
-
01:43:01Le mande un interior
-
01:43:03Si aquí estás parado en un punto y tú estás girando
-
01:43:11No, no, no, era porque
-
01:43:12iba a coger la posición y era avanzar
-
01:43:14Ahí está Oscar, ahí abajo
-
01:43:15Entonces, la cosa era avanzar para adelante
-
01:43:19Para ir escaneando en diagonal hacia abajo y en diagonal para estar paralelo a la
-
01:43:27La trayectora es paralela a la pared, pero el drone está girado para la izquierda también
-
01:43:33Y eso lo hice para allí y para volver
-
01:43:36Pero entonces ahí tu objetivo era
-
01:43:39perdón, escanearla, sólo la pared
-
01:43:41Claro, el entorno
-
01:43:43Ahí de vuelta
-
01:43:46Sigue siendo como un objeto en el fondo y está orbitando esa pared
-
01:43:50Claro, claro
-
01:43:56Ya
-
01:43:53¿Y guiel, ¿mo ya hiciste el modelo? No, no, este todavía no me da un tiempo
-
01:44:02Esta pared también la hice como
-
01:44:06me iba a una esquina y
-
01:44:09ves, tomaba el centro y giraba el drone
-
01:44:13Se ha visto ahí, ¿no? Voy como orbitando para coger la pared con diferentes ángulos
-
01:44:21Está por ejemplo también
-
01:44:27Claro, lo que
-
01:44:29no sé es como hay personas moviéndose como van a quedar
-
01:44:32en el Gaussian, pero bueno, seguramente quedaran
-
01:44:34medio borrones
-
01:44:36Pero con modelo interior, pasa a 360 nos ha hecho entonces Guillermo
-
01:44:49¿Cómo vas a 360? ¿Cómo que
-
01:44:51se hizo lograr, por ejemplo, con una cámara 360? No, no, no
-
01:44:56Yo no he hecho la prueba, ¿no? Ya
-
01:45:04Y luego, si quicimos el edificio por fuera, también en varias fases, y esto que
-
01:45:14fue a petición de Oscar, este sí lo he procesado
-
01:45:17Hicimos órbita sobre el cartel
-
01:45:25Sí, como que
-
01:45:25las órbitas siempre suelen funcionar mejor al momento de procesar, no sé, la hice a dos ángulos, muy más abajo, y luego este más ya del edificio, a este es de vídeo normal para darselo, este ves
-
01:45:46por desde abajo para coger la zotea, y también decidí hacer bastante en vertical, ya que
-
01:45:57el dron me permite el escaneo, lo creo que
-
01:46:01lo hago más rápido en vertical, porque
-
01:46:04cura más área
-
01:46:06¿Cierto? Sí, y lo que
-
01:46:16he visto es que
-
01:46:17he metido también formatos vertical y horizontal, igual en boss shot y lo he tomado
-
01:46:23Claro, entonces aquí me cojo el cielo y me cojo el suelo, y hasta ya no necesito el entorno
-
01:46:30Tiene esta pared, aquí descalada, entonces también me interesante, estaba el árbol, y por eso luego volé por aquí abajo
-
01:46:47Mario, tú no puedes compartir después el link de la presentación? Sí, claro, sí, claro, está en línea, el link está compartido, ya en las últimas reuniones, ¿eh, León? Es el hilo de aquí, lo, lo hago
-
01:47:06Quedir está preguntando, Oscar, en los, en la primera reunión por lo menos, estaba el miro compartido
-
01:47:15Pero si lo quieres poner aquí en el chat, sí, claro, lo comparto
-
01:47:20A ver si me pueden informar si pueden acceder
-
01:47:25A ver si les abre, por ahí te ha salido antes de una notificación de cogracio, estaba intentando entrar y se puede
-
01:47:34Ah, que
-
01:47:36bueno, si no ocupan registrarse ni nada, está como habilitado para visualizar
-
01:47:40De hecho, a mí me llevó otro día una notificación de que
-
01:47:43habías metido a mano, de que
-
01:47:44habías hecho una modificación
-
01:47:46Ah, sí, se chiva, es un chivato
-
01:47:50Pues muchísimas gracias, Mario, yo creo que
-
01:47:54otro buen repaso y yo creo que
-
01:47:58como todo, por lo menos a mí, ahora la parte que
-
01:48:00me toca, como en otras áreas, no me ha tocado, lo que
-
01:48:03yo experimento es que
-
01:48:04como yo le estoy dando duro porque
-
01:48:07lo estoy ofreciendo, por eso puedo tener tantas dudas
-
01:48:12Pero creo que
-
01:48:12estoy a tocarlo, tocarlo, tocarlo, salir, hacer, lo que
-
01:48:16hice León practicar con objetos, que
-
01:48:19va a ser más fácil que
-
01:48:20volar un drone a una iglesia y ir dándole capas, cuando vas cogiendo el truquillo de la herramienta, ir agrandando el objeto, ¿no? Correcto, hay un tema que
-
01:48:36no tocamos, es la parte de la edición para poderlo limpiar
-
01:48:40Enriquezco
-
01:48:40también, sí
-
01:48:42Ahí lo que
-
01:48:42voy a hacer más bien es, este le debo un video a Pietro, ¿no? Entonces lo voy a preparar para todos, muy compacto, yo lo que
-
01:48:49ahorita vi es nuevamente Super Splat, vuelve a estar en juego, entonces sin duda sé que
-
01:48:55te da más control para editar y dos para mezclar más de un splat en post shot, eso no es posible, es donde llegué en esa parte, no sé si en última versión o algo, pero eso
-
01:49:10es posible, creo que
-
01:49:12es posible, ya te permite meter varios objetos, yo creo que
-
01:49:16lo he hecho con potso, sí, excelente, y una cosa, una pequeña
-
01:49:21contación que
-
01:49:22si ocupas Kiri lo puede exportar en Met, y ahí obviamente lo va a poder limpiar y trabajar, y si lo haces en Gauchan también tiene un plugin para Blender, cuando también lo puedes trabajar en Blender,
-
01:49:33como una alternativa, obviamente he encontrado que
-
01:49:35Super Splat es mejor opción y todo, pero para que
-
01:49:38se sepa que
-
01:49:38también por Blender se puede hacer
-
01:49:40Pues Mario, el video se que
-
01:49:42dice es que
-
01:49:43tenés de viendo a Pietro, me lo pasa también para subirlo a los recursos
-
01:49:48Se los comparto, yo voy a tomar un espacio de ser posible el día de hoy, y únicamente de esa actividad que
-
01:49:55es el poder limpiar un Gauchan para poderlo guardar, importar a 3 de vista, o incluso fusionarlo con otro, ¿no? Perfecto, muy bien, el tiempo vuela aquí, y los otros teníamos mucho marido, ¿Qué pasa? Sí, bueno,
-
01:50:15ya es hora de comer acá
-
01:50:17Claro, era antes de conocimiento
-
01:50:19Y acá apenas falta mi café el día de hoy
-
01:50:25Muchísimas gracias, Mario, ha sido muy bueno
-
01:50:29Sí, siempre, siempre un gusto, y espero que
-
01:50:34llegamos a entender la mitad, porque
-
01:50:37son muchos aspectos técnicos, pero por lo menos ir actualizándonos por dónde va esto, capaz de que
-
01:50:43la siguiente semana olvidemos todo, se hace con un clic, puede suceder en cualquier momento
-
01:50:53No sé, alguien más, no sé si tenga alguna duda, si no, pues ahí siempre estamos en comunicación en el grupo, ¿no? Agradecerte todo el apoyo y convinto que
-
01:51:04nos comparte, Mario, muchas gracias
-
01:51:07Gracias Roberto
-
01:51:09Roberto es un fiel seguidor en diferido, últimamente
-
01:51:13Está ahí en la sombra, cogiendo todos los conocimientos
-
01:51:19Excelente Horacio, un abrazo
-
01:51:23Muy bien, chicos, pues muchas gracias a todos, y a Mario, en especial, y a darle duros, yo también voy a compartir, según vaya avanzando con el ejemplo profesional y estas otras prácticas que
-
01:51:36puedo ir a hacer, las voy compartiendo, porque
-
01:51:39yo creo que
-
01:51:40con esas dudas que
-
01:51:41van saliendo, es donde entre todos, porque
-
01:51:43de repente le tenemos a Mario como gurú, pero simplemente fue el que
-
01:51:48nos ha picao aquí con el veneno
-
01:51:50Y él está más como también
-
01:51:53Aprender todos, ¿no? Ahí, ahí, de ahí les adelanto, más tarde, también les comparto un ejercicio donde Marco nos ayudó a tomar unos videos para ahí para el Monterey y Guillermo nos ayudó con la programación de
-
01:52:05tres de vista o si llama alumina, se los comparto un grupo para que
-
01:52:09ven como quedó,
-
01:52:10y igual ahí, bienvenidos todos los comentarios, ¿no? Bravo, excelente, excelente, gracias