Oscar Montezuma: “Nos falta desarrollo de inteligencia artificial local”
El desarrollo de la inteligencia artificial ya ha llegado a diversos ámbitos, entre ellos el campo del Derecho, donde comienza a generar cambios significativos. En ese contexto, conversamos con Oscar Montezuma, investigador y CEO de Niubox Legal, quien se mostró optimista sobre el aporte de la IA al trabajo diario de los abogados. Asimismo, explicó qué cuidados deberían tenerse al utilizar estas herramientas.
¿Le sorprende el avance de la inteligencia artificial en estos últimos años o era algo que ya se podía prever?
Sorprende las capacidades que tiene la inteligencia artificial generativa para poder impactar en el trabajo legal y, mientras sigue pasando el tiempo, mayores son esas capacidades. Es impresionante. Ya hay muchas soluciones que se están construyendo, como, por ejemplo, Harvey, que es una solución de inteligencia artificial que nace en EEUU. También hay soluciones como Justina, que es una solución de inteligencia artificial que está enfocada en todo el tema de normas y jurisprudencia en Perú. Lo que hacen es básicamente utilizar todas las capacidades que tiene un modelo de lenguaje largo o grande como ChatGPT y lo conectan con información jurídica. Eso realmente es algo que no ocurría antes con tanta facilidad y eso lo que está haciendo es que ese insumo, esa información legal, se haya abierto de una manera impresionante, porque no solamente la tienes a un clic de distancia, sino que además ya viene procesada. Lo estamos empezando a notar incluso en la demanda de servicios legales, cuando los clientes vienen ya no con la pregunta abierta, sino que vienen y te dicen: “Mira, busqué en ChatGPT y esto fue lo que me dijo. ¿Es cierto o no?”. O también cuando tú les vas a dar el resultado de tu informe y lo pasan por ChatGPT para decirte si te equivocaste o no.
PUEDES VER: Javier Iturralde: “Debemos enfrentar con espíritu crítico los cambios que la IA está generando en el mundo”
En Perú, el avance de la IA generativa, ¿cuánto puede afectar el ejercicio de la profesión de los abogados?
Yo creo que va a potenciar, va a ser realmente una prueba interesante para demostrar dónde está el valor real que agrega el abogado. El valor real no va a ser: te doy la ley, te la leo o te la interpreto, sino, más bien, te diseño una estrategia de defensa, te doy argumentos para poder interpretar la norma de una manera mucho más eficiente. Va a ser un valor agregado distinto. Si todas las tareas rutinarias de levantamiento de información o de captura de información van a ser fáciles y sencillas, son otras las capacidades y habilidades las que se van a requerir de un abogado. Además de las técnicas, se van a requerir también competencias y más habilidades humanas, es decir, más empatía y pensamiento crítico. Yo creo que ahí se va a tener que enfocar el valor agregado que traemos a la mesa y ya no simplemente en ser guardianes de la ley o ser los únicos intérpretes de las normas.
¿Eso quiere decir que los nuevos abogados tienen que capacitarse de otra manera? ¿Cree tú que están preparados para este cambio? ¿O qué podríamos esperar?
Creo que van a haber transformaciones importantes dentro de la profesión legal. Si nos ponemos a ver la estadística que recientemente está saliendo, hay un reciente estudio de Stanford que dice que alrededor del 13% de nuevas generaciones que están entrando al mercado laboral ―no se refiere exclusivamente al tema de Derecho, sino a los que están entrando al mercado laboral en general― ya están viendo un impacto de menores empleos disponibles. Es decir, la inteligencia artificial parece ser que está impactando en los puestos de entrada, o sea, en los recién egresados, en los practicantes, porque ese tipo de trabajo es algo que actualmente está en capacidad de poder reemplazar. Entonces, acá no tenemos una bola mágica como para decir esto es lo que va a pasar, pero sí, según estas estadísticas, lo que estamos viendo es que el primer impacto se puede sentir en las generaciones más jóvenes de abogados, quienes van a tener que capacitarse mucho en el uso de esas tecnologías para que su trabajo no sea reemplazado inmediatamente, sino que sea potenciado. ¿A qué me refiero? A que, por ejemplo, el trabajo de un practicante en los siguientes años ya no va a ser conseguir información manual, sino más bien ser supervisor de lo que este tipo de soluciones (la IA) pueden darte. Entonces, si es que yo le pido a la IA que me haga todo un mapeo de jurisprudencia, bueno, debo asegurarme de que esta información haya sido recabada de fuentes reales.
Respecto al marco legal en Perú, ¿crees que está acorde al avance del desarrollo de la inteligencia artificial? Así como hay una mayor demanda de estas herramientas, ¿qué tan regulado está su uso actualmente en el país?
Perú es uno de los primeros países en la región y en el mundo en haber regulado la inteligencia artificial. Tenemos una ley y un reglamento de inteligencia artificial que se acaba de reglamentar en septiembre y que nos pone un marco normativo, por lo menos de referencia, pero ya tenemos en el Perú un marco normativo, y es importante mencionarlo porque, contrario a lo que se puede pensar, Perú es un país que genera bastante legislación relacionada con temas de tecnología y digital. Fuimos de los primeros países en el mundo en tener leyes de firma digital, sacamos también en su momento la ley de protección de datos personales, que tiene muchos componentes de este tema, tenemos una ley de inteligencia artificial, entonces legislación no nos falta. Lo que nos falta es desarrollo de inteligencia artificial local, construcción de capacidades locales y es ahí donde debería estar el enfoque de todo esto: en cómo construimos capacidades para poder desarrollar tecnología desde acá.
¿A qué te refieres con desarrollo de inteligencia artificial local?
Me refiero a que se pueda desarrollar capacidades desde la academia, por ejemplo, formar a profesionales que sean competentes en estos temas, poder crear algún régimen de incentivos para el desarrollo, para que Perú se convierta en un hub de tecnología, donde sea fácil no solamente formar a profesionales en estos temas, sino también poder experimentar con tecnologías nuevas. Es un tema que es bien amplio, pero que tiene mucho que ver con cómo fomentar que el Perú investigue y desarrolle más ese tipo de tecnologías y que no necesariamente nos convirtamos en consumidores pasivos de tecnología que se genera en otros países. Entonces, creo que por ahí viene el gran reto.
PUEDES VER: Estados Unidos se opone al plan de la ONU para regular la inteligencia artificial con un panel de expertos
¿Los estudios de abogados o empresas del sector legal están preparados para el cambio? ¿Conoces algunos que tienen el uso de la tecnología y de inteligencia artificial como prioridad?
Creo que todavía la profesión legal sigue siendo muy resistente al cambio. Es una de las que más resiste, diría yo. Hay uso de tecnología, pero es incipiente; todavía falta mucho en términos de construir capacidades para que esto se pueda dar a nivel de firmas de abogados. A nivel de gerencias legales, es decir, de departamentos legales de empresa, sí noto un mayor auge, un mayor uso. Es más, conozco equipos de abogados de empresas que han desarrollado incluso, con sus equipos de tecnologías de la información, soluciones internas con inteligencia artificial. Hay más apetito de curiosidad y de entrenarse en el uso de estas herramientas para poder generar algún tipo de innovación o de valor agregado dentro de las empresas donde trabajan. En las firmas de abogados, el tema es mucho más lento; me parece que hay mucha más resistencia al cambio en este frente.
¿Qué factores crees que influyen? Básicamente es por un tema de costumbre, de formación, o ¿por qué ocurre?
Es resistencia al cambio porque es una profesión bien tradicional, o sea, cuando uno se pone a ver por qué es que los abogados somos así. Esto se remonta a la universidad: en la universidad nos enseñan a ser muy formales, muy rígidos, muy conservadores. Los abogados somos formados para detectar riesgos, pero no para asumir riesgos. O sea, un abogado siempre te va a decir: “Cuidado acá, cuidado con la sanción, cuidado con la norma”. Normalmente es muy difícil que veas abogados asumiendo riesgos. Algo distinto que ocurre en las empresas: los gerentes legales de empresas sí están obligados, más que los socios de una firma, a tomar riesgos con el negocio, porque el propio negocio te pide y te dice: “Okey, no solamente me digas lo que puedo o no puedo hacer. Ayúdame a decidir”.
¿También puede ser por un poco de temor por la pérdida de puestos laborales, como ha sucedido en otras carreras?
Es más un temor a lo desconocido: “no me meto a ver, no soy tan tecnológico, yo sigo con mis códigos, sigo con mi papel y me resisto a mirar esto nuevo”. Un poco de tecnopánico también creo que a veces ocurre.
A nivel de la ética, ¿qué cuidados deben tener los abogados al momento de usar la inteligencia artificial?
En ética es muy importante dos cosas y yo siempre lo digo en los talleres que hacemos con equipos legales. Primero, la confidencialidad de la información. Debemos asegurarnos de que, cuando utilizamos herramientas de inteligencia artificial generativas, que son muy buenas, no estemos exponiendo información confidencial. Hay un tema ético muy importante ahí y reputacional también, porque los abogados no olvidemos que estamos obligados al secreto profesional. Tenemos que resguardar esa información de nuestros clientes, entonces hay que tener mucho cuidado con las plataformas que utilicemos para no estar exponiendo información. Y, en segundo lugar, el resultado, porque muchas veces lo que te bota estas plataformas es información que podría estar infringiendo derechos de propiedad intelectual. Hay un tema ético muy importante que abordar, pero esto no es algo de la inteligencia artificial, esto es de siempre; si es que en el pasado utilizábamos el Rincón del Vago o alguna fuente que no era muy fidedigna, teníamos el deber de filtrar esa información, de poder validar y hacer una revisión de que la información sea certera. Entonces eso es hoy y de siempre.
Y en el sector privado, las empresas ¿qué responsabilidad legal pueden asumir en caso caigan en algún error al usar inteligencia artificial?
Tenemos el reglamento de la ley de inteligencia artificial que regula ciertas conductas que están prohibidas y otras que tienen riesgo alto, pero además de esta regulación existen normas de propiedad intelectual, de protección de datos personales y de derechos de imagen que son previas a esta nueva regulación. Entonces, cuando una empresa quiere implementar una solución con inteligencia artificial, tiene que necesariamente hacer este análisis legal. Debe hacer una evaluación de impacto para ver qué riesgo genera el uso de esta solución y cómo mitigar esos riesgos. Por ejemplo, una empresa que quiera agarrar y decir: “Okey, a partir de mañana dejo de contratar diseñadores y empiezo a hacer toda mi publicidad con inteligencia artificial”. Y despido a todo mi equipo de marketing y de diseño y uso ChatGPT o alguna solución de IA. Hay muchos temas legales relacionados con una situación así, desde temas de derechos de autor, porque los resultados que me bota una IA generativa podrían generar una infracción, a derechos de propiedad intelectual, el tema de derechos de imagen y temas relacionados con que la publicidad responda a algo real y no cree falsas expectativas. Hay un montón de temas de cumplimiento legal que es importante chequear antes de diseñar o lanzar una solución de inteligencia artificial generativa en empresas. Al día de hoy hay muchas regulaciones de inteligencia artificial, de datos personales y de ciberseguridad que no están en el radar todavía de muchas empresas y es importante que se le ponga ojo a esto.
Sobre la ley de protección de datos personales ¿cómo se viene aplicando? ¿Crees que está funcionando o tiene alguna oportunidad de mejora?
Tenemos un marco normativo bastante estándar dentro de la región. Se hizo una modificación al reglamento en abril del 2025 y, bueno, la norma es del 2011, con lo cual tiene ya más de 10 años. Entonces, la autoridad vio necesario hacer ajustes y creo que es sano tener una regulación de datos personales, porque vivimos en un país donde la cultura de la privacidad no es lo que más destaca. Y creo que es importante que las empresas y el sector público asuman principios básicos de protección de la información personal. Creo que al día de hoy esta norma ha tenido un efecto positivo, en el sentido de que ha sensibilizado mucho más. Si bien los incidentes ocurren, ya hay más conciencia cuando hay una filtración de datos, cuando hay una brecha de datos, cuando de repente nuestros datos ―como el caso que ocurrió en Reniec― se ven expuestos; ya hay más conciencia. Creo que eso es algo positivo de este marco normativo.
Y algo relacionado al tema, ¿qué recomendaciones darías para proteger sus datos a un ciudadano común que es usuario digital y utiliza su teléfono?
En primer lugar, que no todo tiene que estar en las redes sociales, que es importante preservar por temas de seguridad también. Hay que evitar exponer información personal. Me parece importante tener las configuraciones de privacidad activadas, porque muchas de estas redes sociales y plataformas tienen configuraciones de privacidad que a veces no se conocen. Es importante educarse también, no solamente utilizar las plataformas, sino educarse para configurar la privacidad y también tener mínimos mecanismos de cuidado. Por ejemplo, activar los factores de doble autenticación de nuestros correos electrónicos. ¿Qué cosa es un factor de doble autenticación? Bueno, es para que, si es que alguien quiere entrar a nuestro correo, no basta con que ponga la clave, sino que apenas eso ocurra me van a mandar un mensaje a mi celular para que yo valide que estoy dando acceso a esa cuenta. Entonces, es como un doble filtro, como una doble contraseña. Ese tipo de mecanismos son muy sencillos, pero poca gente los usa. También cambiar los passwords con frecuencia y que tu contraseña no sea 1, 2, 3, 4, 5, 6, 7, 8; o sea, son cosas que pueden parecer muy obvias, pero que no están todavía interiorizadas por mucha gente.