Inteligencia Artificial y ejercicio de la abogacía en Bolivia
La adopción de inteligencia artificial (IA) en el quehacer jurídico dejó de ser una novedad: ya incide en cómo se investiga, se redacta, se administra un expediente y se asesora a los clientes. En Bolivia, este giro obliga a mirar más allá del rendimiento, porque compromete pilares del Estado constitucional de derecho: defensa efectiva, debido proceso, igualdad de armas y legitimidad del sistema de justicia. Con el Libro Blanco sobre Inteligencia Artificial y Abogacía como referencia comparada, este artículo reorganiza sus ideas y las ajusta al escenario boliviano, atravesado por el Proyecto de Ley N° 178/2024-2025 de «Promoción, Gestión y Uso de la Inteligencia Artificial», que perfila a la AGETIC como instancia de control y supervisión.
1. Marco constitucional: impulso y frontera
El debate sobre IA y ejercicio profesional se apoya en un doble fundamento constitucional. Por un lado, el artículo 103.II de la CPE ordena al Estado promover estrategias para incorporar conocimiento y aplicación de nuevas tecnologías de información y comunicación; de ahí se desprende un soporte constitucional para políticas públicas de modernización y para reglas específicas sobre IA. Por otro lado, el artículo 115.II garantiza el debido proceso, el derecho a la defensa y una justicia pronta, oportuna y sin dilaciones indebidas; esas garantías operan como límite: la tecnología es admisible si refuerza la tutela judicial efectiva, no si la deteriora.
Este doble mandato conduce a una tesis rectora: la IA puede ser fomentada como herramienta, pero está condicionada por los derechos. En términos prácticos, su uso será legítimo si eleva transparencia, control y razonabilidad, sin crear ventajas desproporcionadas entre partes ni afectar la independencia judicial o la autonomía técnica del abogado. La modernización, entonces, no se mide solo por rapidez o ahorro, sino por su compatibilidad con garantías y por su aporte real al acceso a la justicia.
2. Definición operativa y lenguaje común
Para evitar confusiones conviene adoptar una noción funcional de IA aplicable al trabajo diario del foro. El Libro Blanco español toma como referencia la definición del Reglamento de IA de la Unión Europea: sistemas basados en máquinas capaces de operar con distintos grados de autonomía y generar resultados como predicciones, recomendaciones o decisiones. Ese enfoque es útil en Bolivia porque cubre desde dictado por voz, transcripción automática y clasificación documental, hasta modelos generativos que proponen borradores o herramientas que estiman tendencias en resoluciones.
En paralelo, el Proyecto de Ley N° 178/2024-2025 busca un marco de uso ético, seguro y transparente, con principios como transparencia, seguridad, protección de datos y soberanía tecnológica, bajo la mirada de la AGETIC. Una definición armonizada entre la futura normativa estatal y estándares profesionales (colegios de abogados, universidades, sector público) permitiría un vocabulario compartido: qué se entiende por IA, qué usos se consideran sensibles, qué obligaciones emergen y qué debe registrarse cuando una recomendación jurídica se apoya —aunque sea parcialmente— en sistemas automatizados.
3. Usos en despachos y defensa: adopción gradual
Aunque el ecosistema boliviano es aún incipiente, pueden identificarse aplicaciones con impacto inmediato si se implementan con prudencia:
Gestión y eficiencia: agendas, alertas de plazos, coordinación de reuniones, ordenamiento de expedientes y flujos de trabajo, con potencial integración a plataformas procesales electrónicas.
Voz a texto y transcripción: conversión de audios de audiencias, entrevistas o reuniones en texto editable para minutas, actas y reportes.
Redacción asistida: elaboración de borradores de contratos, demandas, memoriales o recursos, siempre con revisión crítica para evitar citas erróneas, omisiones o razonamientos incoherentes.
Inteligencia jurídica: búsqueda semántica en normativa y jurisprudencia, clasificación de precedentes y detección de patrones, especialmente útil en áreas reguladas (administrativo sancionador, telecomunicaciones, hidrocarburos).
La incorporación debe ser progresiva y realista, porque no todos los estudios cuentan con la misma infraestructura, conectividad o capacitación. Si la IA se introduce sin medidas de inclusión tecnológica, puede ampliarse la brecha entre grandes firmas, pequeñas oficinas, defensa pública y asesorías en zonas rurales, afectando indirectamente la igualdad de acceso a la justicia. Un caso típico lo muestra: un abogado puede pedir a un modelo generativo un esquema de acción constitucional, pero debe contrastar jurisprudencia, ajustar hechos a la prueba disponible y corregir cualquier «invención» del sistema. La IA agiliza tareas, pero no reemplaza estrategia, criterio ni responsabilidad.
4. Regulación emergente, responsabilidad y «reserva de humanidad»
El Proyecto de Ley N° 178/2024-2025 introduce una arquitectura regulatoria donde la AGETIC asume tareas de registro, certificación, monitoreo y sanción frente a usos indebidos. También incorpora prohibiciones y restricciones orientadas a prevenir daños: algoritmos manipuladores o discriminatorios, reconocimiento facial masivo sin control judicial y sistemas de puntuación social, además de deberes de reparación ante perjuicios ocasionados por IA.
En la práctica profesional, esto exige gestión preventiva del riesgo. Primero, la relación con proveedores de IA deberá reforzarse contractualmente: condiciones de seguridad, auditoría, trazabilidad, transparencia y tratamiento/ubicación de datos. Segundo, cobra especial relevancia la confidencialidad y la protección de datos de clientes en un contexto donde Bolivia todavía no cuenta con una ley integral consolidada de datos personales, lo que obliga a elevar estándares internos (minimización, control de accesos, cifrado, retención limitada). Tercero, se ensancha el campo de la responsabilidad: el abogado puede responder no solo por errores tradicionales, sino por uso descuidado de IA (presentar argumentos no verificados, exponer datos sensibles o emplear herramientas que introduzcan sesgos perjudiciales).
Aquí se vuelve central la idea de «reserva de humanidad» propuesta por el Libro Blanco: la IA debe ser apoyo, no sustituto del juicio profesional. En Bolivia, esta premisa se enlaza con el artículo 115 CPE: el derecho a la defensa exige un abogado que tome decisiones estratégicas, explique opciones y asuma responsabilidad por el rumbo del caso. De ello se siguen tres consecuencias operativas: (1) evitar decisiones jurídicas totalmente automatizadas cuando estén en juego derechos fundamentales; (2) exigir trazabilidad y explicabilidad de resultados usados en litigio o asesoría, para que puedan comprenderse, discutirse e impugnarse; y (3) reafirmar el deber de diligencia: la herramienta sugiere, pero la verificación, selección y articulación del argumento es indelegable.
5. Propiedad intelectual, sesgos y hoja de ruta
En propiedad intelectual, el Libro Blanco destaca una tendencia comparada: textos generados exclusivamente por IA suelen no ser protegibles por derecho de autor en sistemas que exigen originalidad humana, criterio que resulta razonablemente trasladable al marco boliviano centrado en la creación intelectual de personas naturales. Para la abogacía, esto implica entender los borradores de IA como material de trabajo: adquieren valor profesional cuando el abogado aporta criterio, estructura, adecuación al caso y responsabilidad por el contenido, además de definir políticas internas sobre autoría, confidencialidad y uso de herramientas.
Los sesgos algorítmicos, por su parte, entrañan riesgos específicos en una sociedad marcada por desigualdades de origen étnico, género, condición económica y brechas rural-urbanas. Un sistema entrenado con datos incompletos o distorsionados puede replicar injusticias y afectar igualdad e imparcialidad. El proyecto de ley intenta contener estos riesgos al prohibir determinados usos discriminatorios y exigir supervisión humana en decisiones automatizadas que inciden en derechos; aun así, la práctica forense demandará una actitud activa: cuestionar tecnologías opacas, pedir información técnica cuando corresponda y argumentar la afectación de garantías si un sistema condiciona indebidamente decisiones.
Si la IA debe servir a la justicia y no solo al rendimiento de algunos actores, la abogacía necesita una agenda estratégica: formación continua en cultura digital; supervisión humana efectiva con protocolos de revisión y verificación; confidencialidad reforzada; gobernanza interna (herramientas autorizadas, registro, gestión de incidentes, auditorías); y contratación responsable con proveedores (seguridad, auditoría y responsabilidades). En definitiva, la oportunidad boliviana es anticiparse y convertir la «reserva de humanidad» en principio operativo del ejercicio profesional, ubicando a la IA al servicio de una justicia más accesible, transparente y respetuosa de la dignidad humana.
The post Inteligencia Artificial y ejercicio de la abogacía en Bolivia appeared first on La Razón.
