Paperspace ofrece productos que van desde escritorios virtuales hasta estaciones de trabajo de alta gama para su uso en una variedad de áreas, desde estudios de animación hasta infraestructura para aprendizaje automático y ciencia de datos. habló con el director ejecutivo de Paperspace, Dillon Erb, para obtener más información.
: ¿Cuál es la trayectoria de su empresa y dónde se posiciona en el mercado?
Erb: Hemos existido durante unos tres años y desarrollé el producto con mi amigo Daniel Koban.
La empresa surgió de un interés compartido en la computación GPU. Ahora bien, las GPU han tenido una historia relativamente larga, desde el mundo de los videojuegos hasta la actualidad, donde se han convertido en un dispositivo informático general.
Comenzamos pensando en cómo la computación en la nube se transformaría en gran medida gracias a estas arquitecturas informáticas paralelas y, a medida que eso sucediera, también surgirían nuevos tipos de cargas de trabajo emergentes.
VER: Aprendizaje profundo: una guía privilegiada (PDF gratuito)
Comenzamos hace dos años y pasamos por un programa llamado Y Combinator. [a model for funding start-ups] en la costa oeste y luego instaló una sede en la ciudad de Nueva York.
A partir de ahí formamos un equipo, que ahora consta de 14 personas, y comenzamos nuestra primera empresa en el extranjero con una oficina en Ámsterdam.
Somos ingenieros en su mayor parte y lo que estamos haciendo es construir una plataforma cuyo objetivo principal es hacer que la computación paralela sea más accesible.
La aplicación principal, la gran historia de los últimos años, ha sido la evolución de la GPU desde puramente la canalización de gráficos hasta ser realmente uno de los tres componentes centrales del aprendizaje profundo y el aprendizaje automático.
Lo que parece hoy es que estamos en una especie de era dorada de tecnología asombrosa en torno al aprendizaje profundo y el aprendizaje automático: marcos nuevos y sorprendentes que aparecen todo el tiempo, los más importantes son TensorFlow y Torch y un puñado de otros. .
Y luego tienes una increíble cantidad de poder computacional que surge de estas GPU. Combine eso con las cantidades sin precedentes de datos no estructurados que existen hoy en día y realmente tendrá algo.
Si piensas en la combinación de todas estas cosas, estamos en una época en la que el aprendizaje profundo y el aprendizaje automático son increíblemente poderosos. Pero, dicho esto, aún hoy, con toda la accesibilidad, sigue siendo difícil incluso para las personas muy motivadas comenzar a utilizarlo.
Lo que eso significa es que la mayor parte de la investigación de vanguardia proviene de los grandes, Google y Facebook. Pero encontrar una manera más fácil para que los desarrolladores principales lleguen a este mundo sigue siendo extremadamente difícil.
Entonces, lo que ofrecemos es una plataforma básica que le permite pasar de cero a construir un modelo real de aprendizaje automático muy, muy rápidamente.
Ahora bien, si eres desarrollador web, hoy tienes acceso a una gran cantidad de herramientas, un ecosistema muy rico. Pero si desea hacer una IA más moderna o aprendizaje automático, las herramientas aún no están disponibles. Mucho de eso gira en torno a ciertas infraestructuras y hacer que las GPU funcionen correctamente, además de combinar todo el software y flujos de trabajo realmente nuevos que están surgiendo.
Ahí es donde pasamos la mayor parte de nuestro tiempo: pensar y desarrollar herramientas, etc. El valor aquí es que la tecnología es asombrosa y si podemos abrirla a más personas, creo que tendrá un efecto bastante poderoso.
Pensando en el poder disponible, ¿puedes pensar en alguna área en particular donde puedas usar este poder?
Una de las cosas interesantes sobre el aprendizaje en particular o el aprendizaje automático moderno es que en realidad es una técnica muy generalizable.
Lo que eso significa es que si tienes acceso a, digamos, datos estructurados (es decir, escaneos de rayos X o estás recopilando datos de imágenes), un modelo de aprendizaje profundo puede brindarte una cantidad bastante mágica de poder predictivo.
VER: Empresa con sensores: IoT, ML y big data (Informe especial de ) | Descargue el informe en formato PDF (República Tecnológica)
Nuestra opinión al respecto es que creemos que se trata de una tecnología fundamentalmente disruptiva que realmente afectará a todas las industrias. La realidad actual es que donde se obtienen mayores beneficios al utilizar el aprendizaje profundo es en la visión por computadora. Cosas como la detección o categorización de imágenes, cosas que tienen grandes cantidades de datos de imágenes. Esas son las áreas que funcionan bien hoy.
Pero realmente calcula para todo, desde la detección de anomalías hasta los sistemas de seguridad. Trabajamos con una empresa que se dedica a la robótica industrial utilizando una técnica llamada aprendizaje por refuerzo (básicamente, enseñando a los robots a aprender más rápidamente) y otra que se dedica a la fabricación.
Una de las cosas que me llama la atención sobre la IA es que, si bien existe una enorme potencia de cálculo, la gente realmente no sabe cómo utilizarla. ¿Qué opinas?
Sí, pero creo que aquí hay dos vectores. Uno es una especie de habilitación tecnológica pura. En cierto nivel, muchas más empresas tienen la capacidad de realizar diferentes tipos de aprendizaje automático, pero no pueden hacerlo simplemente porque aún no tienen las herramientas o la experiencia.
Creo que el otro tipo de vector es que definitivamente estamos viendo una consolidación, pero creo que es problemático en muchos sentidos. Empresas como Google tienen acceso a cantidades casi ilimitadas de información, pero terminan haciendo predicciones que, en cierto nivel, casi dan miedo. No quiero preocuparme demasiado por eso, pero creo que estamos viendo una tendencia en la que tener acceso a una gran cantidad de datos y experiencia, gracias a los expertos en aprendizaje automático, realmente puede brindarle una ventaja competitiva. Así es como lo hacen las grandes empresas. Google se ha reorientado completamente en torno a la IA.
Pero creo que esta es una tecnología que por su propia naturaleza no está reservada a las grandes empresas. Hay un gran proyecto que tiene que realizarse, abriéndolo a todos y haciéndolo accesible.
¿Cómo llegaste a esta área? ¿Qué te llevó hacia ella?
Erb: “Cosas como la detección o categorización de imágenes, cosas que tienen grandes cantidades de datos de imágenes. Esas son las áreas que funcionan bien hoy en día”.
Foto de : Paperspace
En realidad vengo del mundo de la construcción y la arquitectura, pero incluso dentro de ese mundo estaba en el área de la tecnología.
Hace tres años y medio estaba trabajando para un equipo de arquitectura social que hacía simulación social. Por eso, mi trabajo en este grupo consistía en desarrollar software de simulación social para estructuras a gran escala.
Entonces comencé a investigar formas de otras personas para obtener un mejor rendimiento del sistema y eso me llevó a las GPU, y en particular al jugador más grande, Nvidea.
Ahora tienen un marco llamado Cuda y hace unos cuatro años, la mayor parte de Cuda se usaba para HPC, esas simulaciones estructurales en las que estaba trabajando. Entonces estuve en análisis, que fue otra parte, y luego estuve en aplicaciones financieras. Y entonces, después de aproximadamente un año, pasé casi por completo al aprendizaje profundo.
¿Puedes darme un ejemplo práctico de sus usos?
Hay algunas cosas que son interesantes y las divido en dos campos.
Uno de ellos es el tipo de proyecto “moonshot”. Cosas como coches sin conductor y otras cosas como la detección del cáncer. Estamos trabajando con un puñado de empresas que trabajan en esos espacios.
Una empresa está tomando datos de imágenes de automóviles que circulan por una ciudad y luego los incorpora a un sistema que realmente puede predecir todo tipo de cosas interesantes, como la construcción y el valor inmobiliario, y cosas así.
La detección del cáncer es importante. Si tiene acceso a muchas imágenes de tumores malignos y benignos, puede comenzar a entrenar modelos que realmente puedan predecir, con mucha precisión, y mostrar cuándo hay algo que necesita investigación.
Y luego están las cosas mundanas pero interesantes, como la aplicación robótica que mencioné y hay un sistema que básicamente enseña a los robots a trabajar mejor.
¿En qué te estás centrando actualmente?
Hacer aprendizaje automático es una operación de muchas facetas y lo que hay que hacer es comenzar con los datos que se ingiere. Luego entrenas estos modelos y decides si los vas a poner en una aplicación de iPhone o en el consultorio de un médico o lo que sea.
Lo que luego terminas viendo es una canalización y una canalización ejecuta las cosas desde los datos que entran hasta la predicción que sale.
Y la construcción de estos canales es probablemente una de las cosas más complicadas del aprendizaje automático. Una cosa es hacer un proyecto único, pero otra mucho más compleja es construir un oleoducto.
VER: Cómo implementar la IA y el aprendizaje automático (Informe especial de ) | Descargue el informe en formato PDF (República Tecnológica)
Donde nos centramos hoy es en la construcción de estos oleoductos. Existe una técnica llamada integración continua (CI) o implementación continua (CD), que es bastante común en el mundo del desarrollo web.
Lo que escuchamos es que todas las empresas, en algún momento, utilizarán CI o CD para el aprendizaje automático y ese es el tipo de plataforma que realmente falta en el mundo del desarrollo, y ahí es donde trabajamos la mayor parte del tiempo. .
El objetivo es tener un motor de predicción real en el que ingresan los datos y su modelo predice y le brinda mejores predicciones.
¿El hardware es todo GPU y, presumiblemente, GPU cada vez más potentes?
Puedes usar la misma GPU con videojuegos que podrías usar para entrenar modelos de aprendizaje profundo. Lo que sucedió durante el último año es que Nvidia lanzó su primera GPU diseñada para el aprendizaje automático, su arquitectura Volta. Y Google lanzó un acelerador llamado TPU, que era un chip personalizado construido íntegramente para el aprendizaje automático.
A día de hoy, el 95 por ciento de nuestros clientes y usuarios utilizan Nvidia, pero eso está cambiando y creo que el ecosistema de software se volverá más rico y el ecosistema de hardware se volverá más heterogéneo, y mientras eso sucede, se necesita una capa de software para realmente unir esa brecha y facilitar que los desarrolladores aprovechen todo tipo de nuevas tecnologías sin profundizar en las implementaciones subyacentes.
¿Puedes hablarme sobre gradiente?
La empresa es Paperspace y nuestra pila de herramientas se llama Gradient. Se trata de una pila de herramientas para desarrolladores que les ayuda, en un nivel relativamente alto, a conectarse a una infraestructura de GPU.
Hay algunas herramientas que lo permiten. Una es la integración de un portátil. Un cuaderno Jupyter es una especie de estándar de factor para que un desarrollador de aprendizaje automático comience a escribir código. Y luego el cuaderno interactivo soluciona estos problemas y tenemos versiones bastante potentes de ambos.
Eso es con la arquitectura Javelin donde efectivamente un desarrollador puede decir: “Aquí hay un poco de código” y nos lo envía usando una utilidad de línea de comandos o también tenemos una GUI para hacerlo. Y nos lo envían y dicen: “Aquí está el código que quiero ejecutar y el marco que quiero usar”, y luego hacemos todo el proceso y nos aseguramos de que podemos colocar ese trabajo en un acelerador y luego devolver los resultados. .
Creo que juntamos todo esto. Pero creo que hay una crítica al aprendizaje profundo: es una especie de caja negra en la que se introducen datos, se obtiene una predicción y se espera que sea correcta. Creo que una gran parte de lo que queremos hacer es incorporar la usabilidad al aprendizaje profundo, a lo que podría ser un sistema inescrutable.
Lecturas adicionales sobre potencia y GPU
Nvidia pone a disposición Kubernetes en GPU
Nvidia ha anunciado nuevas herramientas de aprendizaje profundo tanto para investigadores como para desarrolladores, incluida una versión candidata a lanzamiento de Kubernetes en GPU de Nvidia que está disponible para que los desarrolladores realicen comentarios y realicen pruebas.
Intel: Espere nuestras primeras GPU discretas para 2020
Cuando Intel contrató el año pasado al principal arquitecto de Radeon de AMD, Raja Koduri, el fabricante de chips marcó…