Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

jueves, 17 de julio de 2025

Inteligencia artificial: impacto y rezago escolar

 

Alejandro Canales

UNAM-IISUE/PUEES

@canalesa99.bsky.social

 

(Publicado en Campus Milenio No. 1100. Julio 17, 2025, pág. 4)

Un documento reciente de la Comisión Económica para América Latina (Cepal) muestra que la región, respecto de la mayoría de las economías desarrolladas en el mundo, es de las más rezagadas en su inversión sobre inteligencia artificial (IA). No se corresponde, según se precisa, con su tamaño y peso en el PIB mundial.

 

En términos generales, el reporte, coordinado por Juan Jung y Raúl Katz, se basa en datos de 26 naciones para el periodo 2019-2023, en los que incluye economías desarrolladas y seis países latinoamericanos. Según los datos de la publicación, la región gastó alrededor de 2.6 mil millones de dólares (mmd) en IA en el año 2023 (Impacto económico de la inteligencia artificial en América Latina, 2025).

 

El monto de América Latina es inferior a lo destinado por otras regiones. Por ejemplo, Medio Oriente y África gastaron 3.6 mmd; Europa, 21.8 mmd; Asia y Pacífico, 61.3 mmd; y los Estados Unidos, 76 mmd. Es decir, este último país gasta 29 veces más que seis países latinoamericanos.

 

A su vez, en correspondencia con el tamaño de sus economías, Brasil y México son los países que destinan la mayor proporción de gasto en IA en la región: 62 por ciento del total. No obstante, la inversión de Brasil casi duplica a la de México: 1.1 mmd y 656 millones de dólares, respectivamente.

 

El caso de Chile con 163 millones de dólares de gasto en IA es más sorprendente, porque con menor tamaño y densidad demográfica, su inversión supera a los 146 millones de Argentina o los 136 millones de Colombia. Lo que ocurre con Chile se debe, según el mencionado reporte, a su alto desarrollo en materia de digitalización.

 

La IA es una de las tecnologías que anticipa una revolución en el terreno laboral a escala mundial y en toda nuestra vida cotidiana. El uso de la IA no es opcional ni puede postergarse. Ya es una vorágine del presente, con resultados sorprendentes, pero también muy perturbadores para diferenciar lo real de lo ficticio, entre otros peligros.

 

El impacto de la IA será cada vez más notorio en la sociedad y en la economía. La cuestión es si, literalmente, estamos preparados para enfrentar su utilización, cómo la aprovecharemos de la mejor forma y qué haremos frente a sus desafíos. Porque, como se ha prevenido, la IA puede sustituir con mayor eficacia y eficiencia distintos empleos.

 

Las posiciones laborales más amenazadas por la IA son las que involucran tareas rutinarias y repetitivas, como las líneas de producción en serie, el reemplazo del transporte por vehículos autónomos, los call centers, los servicios financieros, el análisis de datos, entre muchos otros.

 

Sin embargo, el alcance puede ser más profundo, cerca de la mitad de empleos en algunas ramas podrían perderse. Por ejemplo, algunas de las estimaciones que se citan en el reporte de la Cepal, señalan que la IA reemplazará a los humanos en 46 por ciento de las tareas administrativas, en el 44 por ciento en el rubro legal, y en 37 por ciento a profesionales de la arquitectura y la ingeniería.

 

Al parecer, en principio, la IA sustituirá el trabajo no calificado y será complementaria para los empleos altamente calificados. Así que los efectos podrían ser muy diferenciados para la economía y el mercado laboral de las sociedades, según el rezago educativo que acumulen, el nivel promedio de escolaridad y el porcentaje de población con estudios superiores.

 

Por eso cobran especial relevancia los lineamientos para regular a la IA, tanto como las políticas para la educación y especialmente para el nivel superior. El gobierno mexicano, en su Plan Nacional de Desarrollo (PND 2025-2030), no incluye objetivos explícitos sobre el fomento a la IA; tampoco ha diseñado normas.

 

No obstante, sí instauró una nueva entidad administrativa que se encargará de todo lo relacionado con la digitalización e informática y sí estableció en el PND como objetivo transversal la “innovación pública para el desarrollo tecnológico nacional”, cuyo propósito será elevar la productividad y la competitividad a través de la transformación digital y la modernización del sector público. Incluso, también tiene como objetivo, convertir a México en potencia científica y tecnológica.

 

En fin, el reporte de la Cepal concluye que destinar un crecimiento de uno por ciento en el gasto de IA puede asociarse con un crecimiento de 0.036 por ciento del PIB. Sin embargo, en buena medida depende del volumen del empleo calificado. Entonces, vale la pena examinar el sistema educativo, las calificaciones de la población y qué metas se proponen para el periodo actual.

 

Lo veremos en una próxima entrega, por lo pronto anotemos que el PND se propone llevar la tasa bruta de educación superior de 43.8 por ciento que tenía en 2024 a 55 por ciento para el 2030. Pero, la diferencia porcentual no es equivalente a los 300 mil nuevos espacios que en el mismo Plan se propone crear. Lo analizamos en agosto.

 

Pie de página: Al parecer, el nuevo rector general de la UAM, Gustavo Pacheco López, tiene el propósito de regularizar a los profesores interinos de la institución. Un problema espinoso y que comparten muchas universidades. Pendientes de la iniciativa, y que quede para el registro.

viernes, 25 de abril de 2025

Inteligencia Artificial: ¿quién coordina o regula?

 

Alejandro Canales

UNAM-IISUE/PUEES

@canalesa99

 

(Publicado en la versión digital de Campus Milenio No. 1087. Abril 24, 2025)

 

La regulación de la inteligencia artificial (IA) requiere la coordinación de esfuerzos globales e iniciativas nacionales. Los gobiernos y sus principales instituciones tienen una responsabilidad que no pueden soslayar. Pero ¿qué organismo nacional debería ejercer un liderazgo?

 

Las herramientas y las compañías centradas en la IA han avanzado con rapidez. El interés informático por desarrollar sistemas o programas que realicen tareas que normalmente requerirían de inteligencia humana tiene más de medio siglo, pero desde que la compañía Open AI liberó la herramienta ChatGPT, al final del año 2022, los acontecimientos se han precipitado.

 

La intención de regular a la IA va en aumento, pero no iguala al asombro que provocan sus logros. Especialmente por el impacto laboral que podría tener una automatización intensiva de trabajos que hoy desempeñan profesionales que se consideran altamente competentes, como los abogados, los profesores, los médicos o los ingenieros.

 

Tampoco se han delimitado del todo las implicaciones éticas del uso de la IA, tanto en lo que concierne a la autoría de los productos que se obtienen como por la veracidad de la información que arroja. O incluso por el uso de datos personales, la ausencia de privacidad o los posibles sesgos en el entrenamiento de una determinada IA.

 

La IA ya está en las instituciones escolares y es utilizada para diversos propósitos. Por ejemplo, para establecer rutinas personalizadas de aprendizaje, diseñar materiales didácticos, desplegar series de ejercicios de complejidad creciente, resolver problemas, así como para ofrecer explicaciones temáticas en términos relativamente sencillos.

 

También puede ser útil para realizar traducciones de un idioma a otro en segundos, elaborar y corregir artículos científicos, preparar exámenes o detectar fraudes académicos, entre muchas otras aplicaciones.

 

Sin embargo, como ocurrió en el pasado reciente con la llegada de otros dispositivos tecnológicos a las aulas, la capacidad institucional parece desbordada y no hay ninguna certeza de cómo se podría regular ni de qué forma se podrá aprovechar mejor la IA.

 

El problema es global y no es sencillo de resolver. Desde luego, sobresale la gran dependencia tecnológica que se podría generar y que los grandes corporativos podrían ejercer a conveniencia. También, a nivel individual, habría una delegación irreversible de tareas hacia la IA que, paradójicamente, nos convertiría en seres menos pensantes y prescindibles.

 

Igualmente, como en muchos otros temas, asoma la punta de la desigualdad en el acceso a la IA, tanto a escala de las instituciones como de alumnos y profesores. Algunas instituciones ni siquiera tienen resuelto el tema de la conectividad o sus recursos son limitados. Otro tanto ocurre con la brecha digital entre estudiantes y profesores: algunos tampoco tienen acceso y otros sí lo tienen, pero desconocen cómo integrar las herramientas a sus actividades.

 

La responsabilidad de trazar los lineamientos sobre la IA debe ser colectiva, y debería encabezarla --lo hemos indicado en este Acelerador de Partículas-- el principal organismo encargado de la política científica y tecnológica en el país (Campus Milenio No. 1019). Ese organismo era el Conahcyt y ahora es la secretaría que lo sustituyó: la Secihti.

 

Aunque también podría asumir un papel de liderazgo la Universidad Nacional Autónoma de México, la institución educativa más sobresaliente y que ha hecho avances sobre la utilización de la IA, al menos en lo que concierne al ámbito educativo (2023).  

 

La Universidad Nacional no es la única institución preocupada, la Universidad Veracruzana, el mes pasado, publicó una propuesta de manifiesto sobre el uso de la IA (aquí se puede ver: https://qrcd.org/8Z3Z). Un documento breve para alentar la discusión sobre el tema y que plantea tres áreas de acción.

 

El mismo mes pasado, la Universidad Pedagógica Nacional (UPN), la Anuies, la Sep y otras instituciones particulares, presentaron el Observatorio Interinstitucional de Inteligencia Artificial en la Educación Superior en México (Anuies 27.03.25). Una iniciativa que, como sugiere su nombre, busca monitorear qué ocurre con la IA en este nivel educativo.

 

No está nada mal lo que están haciendo las instituciones de educación superior en relación con la IA, pero el ámbito educativo solo es uno de tantos sectores. Es necesario coordinar los esfuerzos y no se puede soslayar la responsabilidad gubernamental. Tal vez sería tiempo de que el tema aparezca en la agenda pública.

 

Pie de página: El Congreso ya aprobó el Plan Nacional de Desarrollo 2025-2030 y ya está publicado (DOF 15.04.23). No hay ninguna modificación respecto de la propuesta que entregó el gobierno federal el pasado 28 de febrero. Ahí se reitera el propósito de convertir a México en una potencia científica y tecnológica. Pero, en realidad, en las líneas de acción se piensa más bien en una potencia tecnológica. Aunque tampoco se ve cómo se podría lograr. Lo veremos // El conflicto entre la Universidad de Harvard y el gobierno de Trump sigue escalando. La forma en la que se resuelva marcará la pauta de las relaciones entre las universidades y el gobierno trumpista en este periodo.

jueves, 3 de octubre de 2024

La responsabilidad universitaria y la velocidad del cambio tecnológico

 

Alejandro Canales

UNAM-IISUE

@canalesa99

 

(Publicado en Campus Milenio No. 1062. Octubre 3, 2024. Pág. 4)

 

Los avances tecnológicos nos sorprenden y nos inquietan cada vez más. La Inteligencia Artificial (IA) es la novedad más reciente, de forma especial cuando se abrió al público el famoso ChatGPT al final del 2022 y se convirtió en una herramienta que podía reemplazar el trabajo de los humanos. Pero no es la única y seguro no será la última.

 

El acelerado desarrollo tecnológico tiene sus apologistas que están pendientes de los desarrollos más recientes y piensan que nos conducen a un progreso sin retorno. También están los detractores, no son unos luditas del siglo XXI, pero sí tienen sus reservas sobre sus implicaciones y prefieren mantenerse relativamente al margen de estos dispositivos.

 

Sin duda la tecnología está cambiando nuestras vidas y no podemos sustraernos a sus efectos. Pero ¿la universidad tiene algo qué hacer o decir en esas circunstancias? El tema tiene múltiples aristas y todas ellas son relevantes. Tal vez la universidad podría plantearse dos grandes perspectivas sobre el tema. Una que enfatiza el tema desde el interior y para la propia institución, para orientar, adaptar, regular e innovar su desarrollo frente a los avances científicos y tecnológicos.

 

Aquí la universidad intenta responder qué herramientas tecnológicas son imprescindibles y cómo incluirlas en el desarrollo de sus actividades sustantivas para tener mejores resultados. O bien, qué innovaciones y cuáles contenidos tecnológicos no pueden estar ausentes en una formación profesional universitaria. Esta visión es necesaria, pero tal vez no es la que más le preocupa a la sociedad.

 

Otra perspectiva podría centrarse en las implicaciones que tiene el cambio tecnológico para la universidad, pero sobre todo para la sociedad en su conjunto. Una reflexión a este respecto es parte de la responsabilidad social que le corresponde a la universidad. Como lo indicó la Conferencia Mundial de Educación Superior en el 2009, la institución podría desempeñar un papel anticipatorio, “para prever y alertar a la sociedad sobre tendencias emergentes e, idealmente, ayudar a prevenir crisis importantes antes de que sucedan”.

 

La responsabilidad social universitaria no es una novedad, es consustancial a sus funciones, porque su principal actividad es razonar, pensar, criticar. Como decía Ortega y Gaset cuando planteó la misión de la universidad hace casi un siglo: “Necesita también contacto con la existencia pública, con la realidad histórica, con el presente, que es siempre un integrum”. O, como después se destacó: “la universidad como conciencia crítica de la sociedad”.

 

Sin embargo, con el desarrollo tecnológico ocurre algo contradictorio, sus cambios son cada vez más cortos y rápidos, y nosotros no vamos a la misma velocidad. Pero tal vez nosotros y la universidad no tendríamos ni deberíamos ir a la misma velocidad.

 

En el libro de Peter H. Diamandis y Steven Kotler “El futuro va más rápido de lo que crees”, explican por qué ahora el desarrollo tecnológico es más rápido y la aceleración es mayor. Los autores dicen que se debe a tres factores: 1) el crecimiento exponencial de la potencia de cálculo de las computadoras y de todas las tecnologías; 2) las tecnologías que se encuentran en plena aceleración y que convergen con otras tecnologías; y 3) una especie de amplificador de fuerzas (tiempo, capital, nuevos negocios, etc) que tiene un «efecto de segundo orden» para acelerar la innovación.

 

El problema es que, también dicen los autores, en términos históricos el cerebro humano evolucionó en un entorno local y lineal, pero ahora vivimos en un mundo global y esponencial. Son optimistas y sugieren anticiparnos a lo que viene, utilizar la convergencia de tecnologías en todos los ámbitos, sea el comercio, la publicidad, la educación, la medicina, etcétera. Incluso piensan que la aceleración tecnológica es como parte de un viaje continuo hacia la abundancia y será accesible para todos.

 

Sin embargo, lo cierto es que las cosas no son tan sencillas ni ocurre de la misma forma para todos, no solamente es progreso. La inescapable desigualdad está presente, la brecha digital entre los hiperconectados y los que no tienen acceso lejos de acortarse, cada vez se separa más. Pero no es lo único.

 

El desarrollo tecnológico también es un trastocamiento de nuestra vida cotidiana, los hábitos de consumo, de esparcimiento, laboral, de todo nuestro sistema de vida. Y aquí es donde las universidades pueden ser esa conciencia crítica de la sociedad, vigilante de los fenómenos emergentes y prever tendencias. Una labor que, sin embargo, debe realizarla en medio de varias tensiones, como la presión para que responda y cambie al mismo ritmo que la tecnología, o bien, la organización y el sistema en el que funciona la universidad. No es poco.

 

Pie de página: comienza el nuevo periodo de gobierno y la primera decisión es el nombre y la estructura administrativa de la nueva secretaría de ciencia. Atentos.

Nota:  

jueves, 25 de abril de 2024

Neurotecnología: ¿amenaza a la libertad de pensamiento?

 

Alejandro Canales

UNAM-IISUE/PUEES

Twitter: @canlesa99

 

(Publicado en la versión digital de Campus Milenio No. 1041. Abril 25, 2024)

 

Tal parece que las implicaciones de los avances tecnológicos van más rápido que nuestra capacidad para entenderlos y, más importante, para establecer los necesarios marcos de regulación. Todavía estamos por acordar globalmente la mejor forma de controlar el desarrollo de la inteligencia artificial (IA) y sus herramientas, cuando ya debemos atender el tema de la ética de la neurotecnología.

 

La UNESCO, en esta semana, reúne a una veintena de expertos de diferentes partes del mundo para impulsar un primer marco global sobre la ética de la neurotecnología. Esta última no es un campo novedoso, se refiere a cualquier técnica o herramienta que puede medir, obtener y manipular datos sobre la actividad cerebral, como los registros de electroencefalogramas en humanos que se aplican desde hace más de un siglo.

 

Sin embargo, lo nuevo es la rápida expansión que ha experimentado la neurotecnología en las últimas dos o tres décadas. Campos limítrofes como la neurociencia, la ciencia de datos, la ingeniería, las TIC y la inteligencia artificial le han dado un renovado auge y han mostrado que puede tener un potencial sin precedente para la evaluación y manipulación de los sistemas cerebrales de humanos y animales.

 

El rápido desarrollo de la neurotecnología ha tenido beneficios innegables, como los que se han creado para el tratamiento médico de trastornos neurológicos, parálisis o enfermedades mentales. Pero también ha encendido las alarmas de gobiernos y la comunidad académica por la cantidad de información que produce y acumula sobre nuestra identidad, emociones y miedos.

 

Los datos podrían ser utilizados para amenazar la libertad de pensamiento, la dignidad la autonomía o el bienestar de las personas. Las principales dificultades se concentran en las intervenciones no invasivas de la neurotecnología, es decir, aquellas técnicas que permiten actuar sobre el cerebro desde el exterior. Las otras técnicas, las invasivas, requieren de cirugía, pero también son objeto de preocupación por los experimentos que están en marcha de realización de implantes en el córtex cerebral y que parecen un guion de películas de ciencia ficción.

 

Por una parte, como señala Unesco, “las empresas pueden utilizar datos neuronales obtenidos de dispositivos neuro-tecnológicos no invasivos con fines de marketing. Al detectar señales relacionadas con nuestras preferencias y disgustos, estas empresas pueden influir en el comportamiento del cliente para maximizar las ganancias” (t.ly/IOLU6).

 

La industria de la neurotecnología está altamente concentrada, actualmente existen alrededor de 1,400 empresas y de ese total la mitad tiene como sede a Estados Unidos y otro 35 por ciento se distribuye entre Europa y el Reino Unido. En conjunto representan inversiones de poco más de 33 mil millones de dólares.

 

Por otra parte, resulta perturbador que en algún punto solamente pensemos en una preferencia (sin verbalizarla) y un dispositivo tecnológico (sin conexión alámbrica con el cerebro) nos diga que sí o que lo mejor es tomar otra opción. Una especie de interfaz cerebro – dispositivo que traduce las sensaciones en señales digitales, o más todavía, una interfaz cerebro - cerebro.

 

El asunto es que podríamos ser incapaces de diferenciar quién toma la decisión sobre las preferencias personales. Porque, en esa relación de cerebros y computadoras, dice la Unesco, nuestra identidad personal se puede diluir, “en parte porque los algoritmos nos ayudarán a tomar decisiones. En consecuencia, esto puede difuminar la participación de nuestro yo individual”

 

Entonces, el punto es cómo preservar el control sobre la neurotecnología que induce la toma de decisiones. Los 24 expertos convocados por la Unesco se reunirán en París del 22 al 26 de este mes para elaborar un primer borrador de recomendaciones sobre la ética de la neurotecnología.

 

En el grupo de expertos están tres personalidades latinoamericanas: el argentino Roberto Andorno, profesor de bioética y de leyes biomédicas; la brasileña Monique Pyrrho de la Universidad de Brasilia; y el mexicano Patricio Javier Santillán Doherty, director del Comité Nacional de Bioética.

 

La idea es que a lo largo de este año, según ha expresado la directora de la Unesco, se recaben observaciones sobre el borrador, luego se discuta entre los 194 Estados Miembros de la Organización  y para noviembre del 2025 se adopte un marco ético mundial. Ya veremos.

 

 

Pie de página: No hay detalles, pero el Conahcyt y la Secretaría de Marina dicen que desarrollaron en conjunto “la Radio de comunicación mexicana Vírgula, desarrollo tecnológico soberano para el bienestar de las y los mexicanos”. Así lo anunciaron y aquí lo puede ver: t.ly/txUt8. // El rector de la UNAM presenta una primera versión de su Plan de Desarrollo Institucional para el periodo y dice que está a consulta de la comunidad, también acá lo puede ver: t.ly/4TP2o. // Los universitarios argentinos toman la calle para protestar por las políticas de Javier Milei. Fuertes vientos soplan desde el sur.

viernes, 3 de noviembre de 2023

Gobernar a la Inteligencia Artificial: ¿debería ser el Conahcyt?

 

Alejandro Canales

UNAM-IISUE/PUEES

@canalesa99

 

(Publicado en la versión digital de Campus Milenio No. 1019. Noviembre 2, 2023)

La discusión e inquietud sobre la Inteligencia Artificial (IA) no es reciente, pero adquirió otra dimensión desde el final del año pasado, cuando la compañía Open AI puso a disposición pública el ahora famoso ChatGPT. Una herramienta de IA generativa que asombró por las tareas que podía realizar en la solución de problemas, elaboración de textos o creación de imágenes.

 

El tema sigue causando arrebatos a nivel global, como lo indicamos en su momento en este mismo lugar (Campus Milenio No. 983). Pero en este año han aparecido, de forma vertiginosa, otras compañías, otras herramientas y también muchas otras posibilidades de áreas de aplicación de la IA, tantas que se llega a especular sobre el desplazamiento de las personas por rama de actividad. Los límites de las oportunidades y los riesgos están por trazarse.

 

En el ámbito científico y académico se intentan colocar las primeras demarcaciones, aunque las fronteras son muy inestables de cómo utilizar la herramienta sin abrir la puerta al engaño, el fraude o a la inseguridad. Los gobiernos nacionales tampoco tienen una ruta para gobernar a la IA. La preocupación es que todo se descontrole y ocurra algo peor de lo que pasa con las redes sociales.

 

Tal parece que va ganando la idea de que se trata de un tema que demanda la cooperación internacional y debe discutirse a nivel global. El foro del G7 con su denominado Proceso de Hiroshima plantea un código de conducta para los desarrolladores de IA (aquí se puede ver su declaración: t.ly/ZSPNM), la Cumbre del Reino Unido sobre seguridad de IA intenta precisar los riesgos que ya se vislumbran (aquí: t.ly/ArqYb), la de la India o la de otros organismos multilaterales, son ejemplos de los primeros esfuerzos.

 

Sin embargo, ningún país había dado el primer paso para intentar establecer una norma nacional sobre la IA, hasta que este lunes 30 de octubre el presidente estadounidense, Joe Biden, emitió un decreto de Seguridad, Protección y Confianza sobre IA para marcar la pauta sobre el tema.

 

El decreto incluye ocho rubros: nuevos estándares para la seguridad de la IA; protección a la privacidad de los estadounidenses; equidad y derechos civiles; defensa de los consumidores, pacientes y estudiantes; respaldo a los trabajadores; promoción de la innovación y la competencia; impulso al liderazgo norteamericano en el mundo; y uso gubernamental responsable y eficaz de la IA. En cada uno se anotan varias acciones (Hoja Informativa: 30.10.2023).

 

Un periódico español destacó que Joe Biden apeló a una ley de tiempos de guerra para emitir su decreto porque se considera una norma de emergencia, misma que se utiliza “en casos excepcionales, tales como el reclutamiento de tropas, o para movilizar recursos durante la pandemia. Con el nuevo decreto, Estados Unidos se convierte en el primer país en regular sobre el tema” (El País 30.10.2023).

 

Las acciones que se incluyen en la norma estadounidense enfatizan la seguridad y la confianza que debe instaurarse para utilizar las herramientas de IA, como el desarrollo de estándares y pruebas antes de que estén a disposición pública. También considera la creación de entidades y el desempeño de otras existentes, como la de Seguridad, Comercio, Energía o una Red de Coordinación de Investigación o la National Science Foundation para indagar y desarrollar tecnologías de vanguardia de preservación de la privacidad.

 

La actuación de entidades que manejan y operan con conocimientos especializados está fuera de duda en el tema de la IA y no solamente es el caso de los Estados Unidos. Por ejemplo, la agenda de la cumbre sobre seguridad de IA en el Reino Unido la lleva la Secretaría de Estado de Ciencia, Innovación y Tecnología del gobierno británico.

 

El tema de la IA en México también comenzó a tomar fuerza, principalmente en las instituciones de educación superior. La UNAM, por ejemplo, instaló un grupo de expertos para analizar el problema y elaborar propuestas (Gaceta 28.08.2023). El grupo ya publicó un primer documento de uso de la IA en el terreno edcuativo (Aquí lo puede descargar: t.ly/hai6d)

 

A su vez, el diputado Jaime Bueno Zertuche, del Grupo Parlamentario del PRI, al inicio del mes pasado, presentó una iniciativa de ley para crear la Agencia Mexicana para el Desarrollo de la Inteligencia Artificial (Gaceta Parlamentaria 11.10.2023). La Agencia, propone el diputado, debe ser instaurada como un organismo descentralizado y dependiente directamente del ejecutivo federal. El proyecto de ley todavía no se discute y no hay ninguna certeza de si pasará al pleno, pero registrado está.

 

Lo soprendente es que el principal organismo de política científica y tecnológica en México, el Conahcyt, no ha dicho nada. No encabeza los esfuerzos de discusión pública sobre la IA y menos la agenda para el desarrollo y uso de la IA. El tema, cuando más, ha sido objeto de un par de conferencias generales por parte del organismo.

 

El actual periodo de gobierno ya ingresó a la cuenta regresiva y, además, tenemos el desastre que dejo el huracán en Acapulco al que habrá dedicarle recursos financieros por cuantificar. No obstante, eso no debería ser un impedimento para abordar otros asuntos emergentes que también demandan atención prioritaria.

 

Sin duda habría que poner en la lista a la IA y el organismo indicado para encargarse de la tarea debería ser el Conahcyt. Sin embargo, el tema no forma parte de las líneas estratégicas del organismo, tampoco se lo ha instruido el presidente López Obrador y no se ve ningún pronunciamiento en el Congreso.

 

Pie de página: La semana pasada se publicaron los resultados de la convocatoria más reciente del Sistema Nacional de Investigadores y, para no variar en este periodo, la controversia es inocultable, ahora por el inesperado y rápido ascenso de nivel de la doctora Beatriz Gutiérrez Müller, cuando el nuevo reglamento había establecido un periodo de 10 años o trayectoria equivalente.// Ahí viene el nombramiento de nuevo rector en la UNAM y la institución se cimbrará.