Sergio Cruces es profesor del Departamento de Teoría de la Señal y Comunicaciones de la Universidad de Sevilla. Durante su tesis doctoral, se especializó en los criterios de teoría de la información en aprendizaje no supervisado. Extendió la interpretación de los criterios de mínima entropía, máxima negentropía y mínima información mutua, al caso de la extracción simultánea de un número arbitrario de componentes. Desde entonces ha realizado numerosas estancias invitadas y publicaciones conjuntas con profesores del Brain Science Institute (Japón). En 2010, propone el análisis de componentes acotadas como técnica alternativa al análisis de componentes independientes, y en 2015 determina sus condiciones generales de identificabilidad y separabilidad. En colaboración con los profesores Cichocki y Amari, abrió una nueva línea de investigación que pone de relieve el interés de las divergencias generalizadas en la búsqueda de estructuras de baja dimensionalidad que expliquen las observaciones. Trabajo que recibió posteriormente el premio anual al mejor artículo de la revista Entropy. Se acredita en 2014 al cuerpo de Catedráticos de Universidad. En 2015, propuso el principio de mínima complejidad que subyace en los criterios de análisis de componentes acotadas. Inicia una colaboración en la aplicación de técnicas de detección comprimida y criterios de información bayesianos para resolver el problema del modelado y la predistorsión de amplificadores de potencia. Propuso una familia parametrizada de divergencias generalizadas para matrices definidas positivas que interpola suavemente y extiende divergencias matriciales como las de: von Neumann, Riemann, Stein, Frobenius, log-Euclidianas, etc. Obtuvo una expresión de forma cerrada para el gradiente de esta familia, lo que permite la creación de nuevos algoritmos de agrupación, reducción de la dimensionalidad y otros problemas que se basan en la comparación de matrices de covarianza. Ha colaborado seis años como editor asociado (AE) de la revista IEEE TCyb y cuatro años como AE de la revista IEEE TNNLS. Ha sido copresidente de las actividades de estudiantiles para el congreso EUSIPCO'23. Ha supervisado 5 doctorados, tres centrados en temas de aprendizaje no supervisado y dos orientados a mejorar las etapas de preprocesamiento, reducción de dimensionalidad y clasificación de las interfaces cerebro-ordenador. En la actualidad, dirige un grupo de investigación cuyas líneas de investigación incluyen: aprendizaje no supervisado y semi-supervisado; interfaces cerebro-ordenador; separación de fuentes; minería de datos, y algoritmos de procesado de la información. Estas líneas de trabajo, que pretenden profundizar en el conocimiento y análisis de las componentes subyacentes a los datos observados, encuentran aplicaciones en áreas tan diversas como: bioingeniería, imagen, audio y comunicaciones.
Sergio Cruces es profesor del Departamento de Teoría de la Señal y Comunicaciones de la Universidad de Sevilla. Durante su tesis doctoral, se especializó en los criterios de teoría de la información en aprendizaje no supervisado. Extendió la interpretación de los criterios de mínima entropía, máxima negentropía y mínima información mutua, al caso de la extracción simultánea de un número arbitrario de componentes. Desde entonces ha realizado numerosas estancias invitadas y publicaciones conjuntas con profesores del Brain Science Institute (Japón). En 2010, propone el análisis de componentes acotadas como técnica alternativa al análisis de componentes independientes, y en 2015 determina sus condiciones generales de identificabilidad y separabilidad. En colaboración con los profesores Cichocki y Amari, abrió una nueva línea de investigación que pone de relieve el interés de las divergencias generalizadas en la búsqueda de estructuras de baja dimensionalidad que expliquen las observaciones. Trabajo que recibió posteriormente el premio anual al mejor artículo de la revista Entropy. Se acredita en 2014 al cuerpo de Catedráticos de Universidad. En 2015, propuso el principio de mínima complejidad que subyace en los criterios de análisis de componentes acotadas. Inicia una colaboración en la aplicación de técnicas de detección comprimida y criterios de información bayesianos para resolver el problema del modelado y la predistorsión de amplificadores de potencia. Propuso una familia parametrizada de divergencias generalizadas para matrices definidas positivas que interpola suavemente y extiende divergencias matriciales como las de: von Neumann, Riemann, Stein, Frobenius, log-Euclidianas, etc. Obtuvo una expresión de forma cerrada para el gradiente de esta familia, lo que permite la creación de nuevos algoritmos de agrupación, reducción de la dimensionalidad y otros problemas que se basan en la comparación de matrices de covarianza. Ha colaborado seis años como editor asociado (AE) de la revista IEEE TCyb y cuatro años como AE de la revista IEEE TNNLS. Ha sido copresidente de las actividades de estudiantiles para el congreso EUSIPCO'23. Ha supervisado 5 doctorados, tres centrados en temas de aprendizaje no supervisado y dos orientados a mejorar las etapas de preprocesamiento, reducción de dimensionalidad y clasificación de las interfaces cerebro-ordenador. En la actualidad, dirige un grupo de investigación cuyas líneas de investigación incluyen: aprendizaje no supervisado y semi-supervisado; interfaces cerebro-ordenador; separación de fuentes; minería de datos, y algoritmos de procesado de la información. Estas líneas de trabajo, que pretenden profundizar en el conocimiento y análisis de las componentes subyacentes a los datos observados, encuentran aplicaciones en áreas tan diversas como: bioingeniería, imagen, audio y comunicaciones.