Por qué dejé Red Hat

Todo el mundo recuerda su primera vez. Mi primera vez con Linux fue trascendente.Es difícil imaginar una línea de comandos tan fría como sexy, pero lo era para mí. Dentro de ese pequeño cubo de luz parpadeante había puro poder, a la espera de ser liberado. Linux era algo mágico, algo radical, algo que podía cambiar el mundo, y como cualquier cosa revolucionaria era un poco peligroso y misterioso también. Amenazó con derribar las viejas órdenes de poder.Hasta ese momento, todas las grandes empresas de la Tierra desarrollaban su software a puerta cerrada. Las únicas personas que vieron su código fuente fueron el ejército de codificadores que la compañía contrató para arrancarlo. Microsoft era el rey del software privativo. La dinastía WinTel de Windows e Intel gobernó el escritorio con el 95% del mercado. Era un verdadero monopolio, como el Standard Oil de John D. Rockefeller en el siglo XIX, que dominaba el 91% de la producción de petróleo en los Estados Unidos.

Las viejas estructuras de poder no mueren fácilmente. Se defendieron. SCO luchó contra Linux con demandas judiciales. Microsoft desató un asalto total en los medios de comunicación. Steve Ballmer llamó a Linux “comunismo” y “cáncer”.

Me incorporé a Red Hat en 2010, cuando la empresa seguía siendo “la mayor start-up del mundo”, con sólo más de mil empleados. Dirigí mi propia empresa de consultoría durante una década construyendo las primeras granjas web Linux y empresas SaaS, pero estaba agotado, trabajando toda la noche y todo el día, viviendo en centros de datos, comiendo hamburguesas y papas fritas sin parar y machacando bebidas energéticas.Puede parecer una locura ahora, pero hubo un tiempo en el que nadie sabía si el código abierto era un destello en el aire.Las compañías lo temían. Los departamentos legales lo prohibieron. Pasé mis primeros años en el Hat tratando de convencer a los escépticos y cascarrabias ingenieros de Unix de que Linux podía oponerse a los titanes de Solaris y AIX y que no se estrellaría y les costaría sus puestos de trabajo.una década más tarde no hay duda acerca de qué modelo de desarrollo ganó. La visionaria directora ejecutiva de Microsoft, Satya Nadella, transformó la compañía de un monocultivo de “Ventanas en todas partes” a un juego agradable en el arenero con todo el mundo. Se convirtieron en una compañía de juegos y nubes que ama a Linux. Incluso compraron Github, el centro neurálgico del desarrollo distribuido de código abierto.

Hoy en día, el código abierto se ha comido al mundo.

Toda tecnología importante comienza allí, ya sea en la nube, AI, móvil o en contenedores. Si eres joven y acabas de empezar en la tecnología, nunca has vivido sin ella. Es como un árbol o un río, sólo una parte predeterminada de su realidad que siempre estuvo ahí.

Pero como el Linux cambió el mundo, yo también cambié.

Red Hat ha pasado de tener unos ingresos de 500 millones de dólares a 3.000 millones. Cada vez que me daba la vuelta había caras nuevas y extrañas en la empresa BBQ que no conocía, ya que se multiplicaban hasta alcanzar los 13.000 empleados.Y en un momento de aterradora claridad me di cuenta de que la compañía ya no necesitaba a un tipo como yo.Soy una tomadora de riesgos. Yo pinto fuera de las líneas. Soy el tipo de persona que necesitas cuando intentas empezar algo y no hay un plan.Paul Graham escribió que el tipo de persona que se necesita en un inicio es “un hacker que se quede despierto hasta las 4:00 a.m. en lugar de ir a la cama dejando un código con un micrófono dentro; una persona de relaciones públicas que llame a los reporteros del New York Times a través de sus teléfonos celulares; un diseñador gráfico que sienta dolor físico cuando algo está dos milímetros fuera de lugar”.

Y eso es exactamente lo que no necesitas cuando tienes una gran compañía que lo tiene todo resuelto. Necesitas gente que no empiece un solo de jazz en vez de tocar las partituras.

Algunos de ustedes podrían pensar que eso es peor, como si una compañía se negara cuando necesita un tipo diferente de persona para dirigirla. Pero no es peor. Es sólo que es diferente. Se necesitan personas diferentes para momentos diferentes. El río siempre está cambiando y nosotros somos diferentes y el río también.

Así que era hora de irse.

¿Pero ir a dónde? ¿Hacer qué?

Me detuve y me hice una pregunta:

¿Qué cambiará el mundo?

Y realmente sólo hay una respuesta, sólo una tecnología que es maravillosa, poderosa, peligrosa y sexy y que rehará la naturaleza misma de la realidad.

Inteligencia artificial

¿Quizás pensaste que diría criptocurrency?No te preocupes. No he perdido mi pasión por el cripto y seguiré escribiendo y trabajando en él, ya que sigue cambiando la forma en que el dinero y el poder funcionan en el mundo, pero cuando se trata de la IA, no hay tecnología más prometedora y peligrosa en las próximas décadas. No hay un solo negocio, industria, persona o país que no sea tocado por su poder e influencia.

Como dijo una vez un amigo mío de Red Hat, “en el futuro sólo habrá dos tipos de trabajos, uno asistido por la inteligencia artificial y otro realizado por la inteligencia artificial”.

Si quería cambiar el mundo, ahí es donde tenía que ir después. Pero esta vez es diferente. No soy sólo un pasajero en el barco, yendo a la revolución de Internet o a la revuelta del software libre. He visto cómo la tecnología puede comenzar con un brillo en los ojos de un ingeniero y salir mal. Demasiado a menudo la tecnología promete liberarnos a todos y entonces un día nos despertamos y hemos creado una economía de vigilancia en lugar de una utopía de “la información sólo quiere ser libre”.Esta vez planeo hacer algo al respecto. No sólo cabalgaré sobre los vientos del destino y esperaré que tengamos suerte en un futuro afortunado, voy a ayudar a hacer el futuro que quiero ver. Como dijo una vez Sarah Conner: “No hay destino sino lo que hacemos para nosotros mismos”.

Pero, ¿por dónde empezar?

Sabía que necesitaba un plan de ataque múltiple. No era suficiente con ir a trabajar a AI. Necesitaba pensar en algo más grande y tejer mil hilos para ayudar a cambiar el mundo, he decidido atacar esos problemas en dos frentes muy diferentes:

  • Ética práctica de la IA
  • Infraestructura AI

Ambos son parte del mismo tapiz, pero comencemos con la ética y pasemos a la infraestructura.

La era de las máquinas inteligentes

La IA es capaz de hacer un bien asombroso en el mundo.Con demasiada frecuencia, los temores de fantasía populares de Hollywood sobre Terminators y la super IA que se apodera de todo hacen que la gente se aterrorice de los fantasmas y los ciega para ver todo lo bueno que puede hacer.imagina que tienes una pequeña aplicación en tu teléfono que podría detectar el cáncer de piel.Usted lo apunta hacia el lugar y le dice si debe llamar a su médico. Luego usted llama al médico y envía los resultados de la exploración a la enfermera de triaje que se encuentra al otro lado del teléfono. Ahora puede tomar mejores decisiones sobre quién puede ver al médico en lugar de programar a todos por orden de llegada.

Hoy podría estar esperando una cita por uno o dos meses. Mientras tanto, usted tiene un problema serio que necesita ser examinado rápidamente, pero usted está en la fila después de la señora mayor que sólo le gusta hablar con los médicos y el hipocondríaco, todo porque ellos llamaron en primer lugar.

En el futuro, no esperarás. Simplemente enviarás el informe de esa pequeña aplicación para el cáncer a la enfermera de triaje y ella te pondrá a ti en primera línea porque sabe que tienes un problema real. Eso es sólo la punta del iceberg. Al cambiará la forma en que lo hacemos todo. Ya hemos visto coches de autoconducción y a AI golpeando los pantalones del mejor jugador de Go del mundo. El “City Brain” de Alibaba detecta los accidentes de tráfico en 20 segundos y llama a las ambulancias, mientras ayuda a dirigir mejor el tráfico, pero a pesar de todo la buena inteligencia artificial es capaz de hacerlo, también tiene un lado oscuro. Las mismas cámaras en China que pueden detectar restos de automóviles también pueden rastrear a los disidentes en los regímenes autoritarios.

No sólo tenemos que preocuparnos por el Gran Hermano. Esos son sólo los problemas llamativos. Los seres humanos son muy buenos para ver amenazas grandes y llamativas y no ver las más importantes justo frente a nuestras narices. Mientras que nosotros estamos enfocados en problemas falsos, hay otros reales que se nos presentan en este momento.

Ya tenemos algoritmos para decidir si la gente debe ir a la cárcel o salir bajo fianza. Mañana ayudarán a decidir quién consigue un trabajo, quién consigue un préstamo, quién entra en la escuela o consigue un seguro. Eso no tiene por qué ser algo malo, pero cuando sale mal puede salir horriblemente mal, hoy en día hay muy poca transparencia en el aprendizaje automático. Cathy ONeil, autora de Weapons of Math Destruction (Armas de destrucción matemática), habló sobre el caso de Tim Clifford, un profesor de las escuelas públicas de la ciudad de Nueva York, que enseñó durante veinte años, ganó varios premios y obtuvo una calificación de 6 sobre 100 en un año y 96 sobre 100 al año siguiente, a pesar de que no cambió ni una sola cosa en su estilo de enseñanza. El libro de ONeil comenzó con la historia de otra maestra, Sarah Wysocki, a quien despidieron por sus pobres resultados de un algoritmo llamado IMPACTO . Se desarrollan a puerta cerrada y no hay transparencia ni forma de auditar sus decisiones. Es muy parecido a la forma en que desarrollábamos software antes de que el código abierto barriera el mundo.

El problema con las cajas negras y los sistemas de IA propietarios es que no sabemos cómo toman sus decisiones. Sólo tienes que aceptar cómo funciona. El algoritmo podría ofrecer resultados increíbles de clase mundial o basura total que parezca plausible.

Un amigo mío recurrió a una empresa de AI SaaS para que les ayudara a contratar a gente estupenda. Al principio, las demostraciones de la compañía SaaS se veían muy bien. Pero después de un rato mi amigo empezó a sentir algo raro en los candidatos que estaba eligiendo. Pidieron a la compañía de IA que les mostrara qué tipo de características había elegido el ordenador como buenas características para los nuevos empleados. ¿Cuál fue una de las características clave que la máquina de láser en… Si el candidato se llamaba Jerry que sería una persona de marketing fantástico.

No compraron el software.

¿Cuántas personas más lo hicieron?

Todo lo que se necesita es una empresa para desarrollar una demostración de aspecto elegante y un sitio web llamativo y venderlo a un administrador de la escuela que no conoce la IA de un mango de escoba y luego no tenemos ni idea de si está haciendo buenas evaluaciones o evaluaciones desde el manicomio en One Flew Over the Cuckoos Nest.as a society we cant accept that. Por eso necesitamos un marco de trabajo para una ética práctica de la IA y ese es mi primer gran proyecto post-Red Hat, un programa práctico de Ética de la IA. “Práctico” es la palabra clave aquí. La mayoría de las compañías hacen ética totalmente mal. Aquí está la plantilla rota que cada compañía parece seguir. Forman un comité con gran fanfarria. Cantan Kumbaya, publican un informe sobre cómo la IA debe ser “inclusiva y justa”. Inclusivo y justo suena genial, pero no significa absolutamente nada. Es un tópico. No es de extrañar que después de un año nada cambie y el grupo se disuelva.Yo llamo a este enfoque “AI Ethics Theater”.

No se hace nada, pero todos sienten que han hecho algo.

Necesitamos un mejor enfoque porque en el futuro, cuando la gente no es contratada, o es despedida, o va a la cárcel por un algoritmo, la gente se va a enojar y va a hacer preguntas difíciles. Será mejor que tengas las respuestas si construiste el sistema. Y más vale que la respuesta sea mucho mejor que “funciona así” o “no sabemos por qué la máquina hizo eso”.

Entonces, ¿cómo hacemos bien la ética?

Para empezar, sé que no puedo hacerlo solo. Necesito muchas mentes geniales trabajando en el tema. Así que estoy empezando por formar la Fundación Práctica de Ética de la IA. Ahora mismo es una fundación en el sentido más amplio de la palabra. Es un proyecto de base que crecerá. Estoy deseando que se haga realidad porque tiene que existir y quiero reunir a la mayor cantidad de gente posible para centrarme en este problema de una manera real en lugar de sacar a relucir los tópicos. Hay tres pilares en la Ética Práctica de la IA:

  • Un proceso para descubrir e implementar la ética en el código
  • AI auditable
  • AI explicable

Empecemos con el primero porque nadie parece hacerlo bien.¿Cómo funcionaría un proceso ético real?He dado ventaja a la Fundación de Ética de la IA diseñando un plan con la ayuda del grupo de reflexión 2bAhead de Berlín y con la buena gente de Pachyderm , donde soy el Evangelista Técnico Jefe. Vamos a pretender que su empresa está creando un algoritmo que está repartiendo préstamos. Eso significa que es activamente “discriminatorio” contra las personas que no pueden devolverlo. No hay problema. Las compañías no necesitan ir a la bancarrota para dar préstamos a personas que nunca se los devolverán, pero puede haber un problema con el patrón histórico de préstamos de la compañía. Tal vez no le dieron préstamos a muchas mujeres. Ahora la empresa decide que quiere descubrir más mujeres que puedan pagar esos préstamos. Esto podría ser por algunas razones.

La primera es que podrían decidir que son sólo los valores de su compañía.

La segunda razón es mucho más simple. Hay dinero en ello. Históricamente, las mujeres pueden haber sido desatendidas y eso significa que la compañía de préstamos está dejando dinero sobre la mesa. La ética puede alinearse con los incentivos de ganancias si se hace bien.

Pero, ¿cómo se traduce ese valor en algo que la máquina pueda entender?

Si un sistema de aprendizaje profundo se limita a estudiar datos históricos, se hará eco del pasado. Eso significa que tienes que pensar en el problema de una nueva manera: ¿creas un conjunto de datos sintéticos con una red generativa adversarial (GANs), o compras un segundo conjunto de datos? ¿O tal vez usted crea un sistema basado en reglas que le da una puntuación ponderada que combina con la puntuación de la IA de la caja negra para formar una decisión final sobre la solicitud de préstamo?

Ahora usted tiene el potencial de crear un sistema que refleje con mayor precisión sus valores como organización.

Pero no podemos detenernos ahí. Estos sistemas no son perfectos. Ni siquiera cerca. Son defectuosos como todo lo demás en la vida. Cometen errores y cometen diferentes tipos de errores que los humanos. A veces se cometen errores extravagantes que un humano nunca cometería, como identificar el nombre “Jerry” como una buena señal de alguien a quien hay que contratar. Otras veces cometen errores sutiles o imprevistos.Esto se debe a que están tomando decisiones en un entorno infinitamente complejo en el que no podemos procesar todas las variables llamadas vida real. En los primeros días de la IA podíamos recurrir a la fuerza bruta en todas las decisiones posibles. Deep Blue derrotó a Kasperov con potencia computacional. Pero las decisiones más complejas son demasiado variables para conocer todas las posibilidades. El juego de Go tiene más posibilidades que los átomos en el universo conocido y no hay forma de que AlphaGo pueda buscarlos todos. A veces tenía que conformarse con buscar ramas aleatorias en un árbol de decisiones con la búsqueda en el árbol de Monte Carlo y a veces todavía no había una buena respuesta.Las máquinas y las personas hacen predicciones basadas en información incompleta en un sistema caótico. Procesan tantas posibilidades como pueden antes de que se vean abrumados por demasiadas variables.

En otras palabras, hacen suposiciones.

Esas son buenas suposiciones, pero aún así son suposiciones.A veces esas suposiciones son erróneas y conducen a errores, incluso cuando somos muy buenos haciendo predicciones. Un jugador de pelota sabe cómo predecir hacia dónde va una pelota de mosca y el tiempo de su salto para atraparla, pero no lo hace bien cada vez y no puede hacerlo sin importar lo bien que lo haga o cuánto practique.Y cuando se sale del campo de los deportes para entrar en un entorno súper complejo, como conducir un coche en calles reales con lluvia y polvo y otros coches y señales de tráfico cubiertas o rotas, no se pueden ver todos los problemas que se presentan antes de que ocurran. Inevitablemente, tienes un problema que nadie vio venir.A veces es una gran pesadilla de relaciones públicas, como cuando los sistemas de reconocimiento visual de Google comenzaron a identificar a las personas de color como gorilas. Otras veces es un problema súper sutil que podría no aparecer fácilmente sin que pase mucho tiempo, como las mujeres que no obtienen préstamos que estaban realmente calificadas para devolver ese dinero.

En ambos casos, usted necesita un programa en el lugar para tratar con él rápidamente. Necesitas un equipo de respuesta de emergencia. Eso significa que necesitas saber quién está a cargo, quién va a hablar con el público, lidiar con ello en los medios sociales y cómo vas a arreglarlo.

Tal vez, usted necesita tomar ese sistema fuera de línea durante un período de tiempo, o volver a una versión anterior, o poner una regla para evitar que se salga de los rieles temporalmente hasta que pueda arreglar el problema más grande… Eso es lo que Google hizo. Trataron el problema al no permitir que el sistema etiquetara nada como gorila. Lo creas o no, en realidad es una buena respuesta de emergencia, pero es sólo el primer paso. Pero ahí es donde se detuvieron. En vez de eso, necesitaban volver atrás y arreglar el problema.Para hacer eso necesitaban encontrar una mejor manera de entrenar el modelo y necesitaban hacer un seguimiento con codificadores que pudieran escribir pruebas unitarias para asegurarse de que el problema no volviera. Pasamos mucho tiempo en la IA juzgando todo por las puntuaciones de precisión, pero eso no es suficiente. En este momento, la ciencia de datos necesita evolucionar para asumir las mejores ideas que hemos utilizado en TI durante décadas, instantáneas y retroceder a los buenos estados conocidos, registro, análisis forense, pruebas de humo y pruebas unitarias.

Todo esto nos lleva a los segundos dos pilares del programa, la IA auditable y la IA explicable.

Estos sistemas deben registrar continuamente sus decisiones en un sistema de agregación de registros, una base de datos o una cadena de bloques inmutable. Ahí es donde se puede poner a trabajar al comité de ética de AI o a un equipo de control de calidad para AI, a cargo de los modelos y la integridad de los datos. Después de esto, una muestra aleatoria de esas decisiones debe ser auditada de forma continua. Esto se conoce como la solución del “humano en el bucle”.

Deje que la gente busque problemas potenciales con nuestra propia inteligencia especializada y la capacidad de coincidencia de patrones incorporada.

También puede automatizar el monitoreo de esas decisiones con otras IAs y sistemas simples de concordancia de patrones. Durante la próxima década espero que la monitorización y auditoría automatizadas de la IA se conviertan en su propia categoría de software empresarial esencial. Con un humano en el bucle y un monitoreo automatizado que le da un enfoque de dos puntas para detectar problemas antes de que ocurran. Ese es un problema mayor porque aún no tenemos respuestas perfectas. Ahora mismo tenemos máquinas que pueden conducir autos y entregar préstamos, pero no pueden decirnos por qué tomaron las decisiones que tomaron. La IA explicable sigue siendo un semillero de investigación académica, gubernamental y corporativa y por eso queremos que la Fundación Práctica para la Ética de la IA reúna a personas que trabajan en cómo lograr que la IA nos diga lo que están haciendo.El manejo de todos estos datos, la toma de decisiones y el monitoreo de la IA en un retroceso infinito, se reduce a algo básico. Necesitamos herramientas, procesos y software para hacerlo realidad, y eso nos lleva a nuestra segunda fundación: la AI Infrastructure Foundation.

¿Caminos? A donde vamos no necesitamos carreteras

La IA tiene un lado emocionante. La intensa y multimillonaria investigación a lo largo de muchos años que conduce a un avance algorítmico de mil millones de dólares que evita que los automóviles que conducen por cuenta propia se estrellen o detecten mejor que nunca el cáncer de pulmón es una parte glamurosa de los sistemas inteligentes Pero el 95% del trabajo en el aprendizaje de la máquina no es glamuroso en absoluto.Es un trabajo duro. Como dijo Kenny Daniel, cofundador de Algorithmia , “Tensorflow es de código abierto, pero no de escala”. Son largos días experimentando con ideas. Se trata de reducir al máximo el tamaño de los archivos de imagen sin perder las funciones que un modelo puede introducir. Es esperar a que los sistemas se entrenen durante horas o días antes de saber si tienes una buena respuesta. Y luego hacerlo de nuevo. Y otra vez.Cuando usted está comenzando, es fácil imaginar que el aprendizaje automático es fácil. Sólo tienes que coger unas cuantas herramientas de código abierto, leer algunos documentos sobre Arxiv, contratar a unos cuantos científicos de datos recién graduados y ya estás fuera. Pero la verdad es que el aprendizaje de la máquina en la producción, a escala, es difícil y cada día se hace más difícil.

Para hacer las partes divertidas de la IA, necesitas hacer el trabajo duro de manejar todas las piezas en la tubería. Para ello se necesitan herramientas e infraestructura. No se construye una ciudad en arenas movedizas. Necesitas una base sólida y una base sólida.

La mayoría de los avances en la IA han provenido de empresas de megatecnología como Google con su laboratorio de investigación interno DeepMind. Tienen una infraestructura increíblemente fina e hiper-avanzada y los investigadores pueden arrojar virtualmente cualquier problema a los ingenieros que manejan esas infraestructuras. No están usando la IA a escala en una caja de software. Si las piezas clave de software que un investigador necesita no existen, los ingenieros de Google pueden codificarlas en casa, pero no todo el mundo tiene un ejército de programadores internos y una infraestructura de escala web que puedan modificar sobre la marcha. A medida que AI se introduce en las empresas, las empresas luchan por crear una pila coherente de herramientas para mantener sus tuberías de AI/ML funcionando como una máquina bien engrasada. Una explosión de proyectos de código abierto, lagos de datos que se han convertido en océanos de datos y una confusa serie de complejas piezas de infraestructura lo hacen más difícil.Y de eso se trata mi trabajo con la AI Infrastructure Foundation , de reunir a todas las personas, organizaciones, proyectos y empresas que están trabajando en la construcción de carreteras y tuberías del futuro impulsado por la IA. Los mayores problemas de esa pila son los datos y la gestión de datos, la creación de versiones, el control de cambios. Data es el nuevo petróleo y el nuevo oro. Y es súper fácil que los datos se salgan de control.Un equipo de científicos de datos que realiza reconocimiento facial en cámaras de exterior puede comenzar con un conjunto de datos de cien terabytes, pero no permanecerá así por mucho tiempo. Los dispositivos inteligentes de hoy en día están repletos de sensores y sistemas de telemetría que envían información en un flujo constante. Esos datos necesitan ser ordenados, cambiados, etiquetados, transformados, escalados y comprimidos. En resumen, cambia y cambia constantemente. Los equipos de ciencias de la información no pueden gestionar todos esos datos y hacer un seguimiento de todos esos pequeños cambios por sí mismos. Necesitan trabajar codo con codo con los departamentos de operaciones de TI y de ingeniería de software de principio a fin. Demasiadas organizaciones comenzaron sus esfuerzos en el campo de la ciencia de datos como procesos separados de las tareas regulares de ingeniería y no funcionan. Falta la seguridad, falta el control de modificaciones. Si no sabe quién tenía en sus manos un archivo de pesas antes de que se pusiera en producción, cómo sabe que no fue cambiado o manipulado y si alguien no autorizado lo tocó… A medida que los datos crecen fuera de control y proliferan los modelos y herramientas de aprendizaje de la máquina, es esencial tratar el aprendizaje de la máquina como otra variación de la ingeniería de software tradicional. Ahí es donde Kubernetes , containers y OpenShift entran en el flujo de trabajo de ML, junto con los paradigmas de programación de DevOps, los marcos de trabajo de código abierto como Kubeflow y herramientas como Pachyderm que actúan como “Git for data”.Cuando su código, sus archivos y sus modelos cambian al mismo tiempo, entonces se hace cada vez más difícil hacer un seguimiento de lo que ha cambiado y de la relación entre ellos. Pachyderm surgió de la experiencia de los fundadores con el aprendizaje de máquinas en diferentes empresas de nueva creación y empresas, trabajando con bioinformática, al análisis de riesgos y la lucha contra el blanqueo de capitales, el comercio algorítmico, junto con el reconocimiento de vídeo e imágenes.los científicos de datos en esas empresas construyeron sus modelos sobre la base de las tuberías de múltiples etapas increíblemente complejas y frágiles, el más mínimo cambio en los datos trajo consigo el colapso de todo el sistema. A menudo tardaba horas en funcionar y, cuando fallaba, los ingenieros tardaban más horas en localizar el problema, sólo para darse cuenta de que la ruta de datos se había movido.

Esté preparado para adaptarse.

Como dijo Bruce Lee, “Sé como el agua. Si pones agua en la taza, se convierte en la taza. Pones agua en la botella, se convierte en la botella” Asegúrate de que tu organización no se aferra…