viernes, 23 de diciembre de 2011

Feiz Navidad y Próspero Año Nuevo

Dedico esta entrada en este blog para desearles una Feliz Navidad llena de amor, paz y felicidad a los que visten este sitio, que este 24 nos haga reflexionar a todos acerca de lo que verdadéramente es importante, de lo que en verdad vale la pena, que se quede atrás el pasado que solo afecta nuestro presente, que olvidemos a quienes nos han lastimado y tratemos de ser un poco mejores.

De igual manera les deseo a todos un Feliz Año Nuevo, y sobre todo un 2012 lleno de promesas cumplidas, ojalá se cumplan todos y cada uno de sus deseos, pero lo más importante espero que tengan salud y amor.

Alberto

P.D. y de paso, si en este 2012 usaran Software Libre, creo que será un mejor año que 2011

sábado, 17 de diciembre de 2011

1+1=2

OJO: no apto para cierto político de muy reciente fama

Tomado de Internet y con el objeto de probar LaTeX en Blogger: $$---$$ Cualquier Ingeniero aprende, desde la infancia, la notación matemática según la cual la suma de dos números reales, como por ejemplo: $$1+1=2$$ puede ser escrita de manera muy simple. Sin embargo, podemos decir, que está totalmente carente de estilo, sobre todo para un Ingeniero Desde las primeras clases de Matemáticas sabemos que: $$1 = ln \left( e \right)$$ y también que: $$1 = {\sin ^2}(p) + {\cos ^2}(p)$$ Además todos saben que: $$2 = {\sum\limits_{n = 0}^\infty {\left( {\frac{1}{2}} \right)} ^n}$$ Por lo tanto la expresión $$1+1=2$$ puede ser reescrita de una forma más elegante como: $$ln \left( e \right)+ {\sin ^2}(p) + {\cos ^2}(p)= {\sum\limits_{n = 0}^\infty {\left( {\frac{1}{2}} \right)} ^n}$$ la cual, como fácilmente pueden observar, es mucho más comprensible y científica. Por otra parte, sabido es que: $$a = \cosh (q)*\sqrt {1 - {{\tanh }^2}\left( q \right)}$$ y que $$e = \mathop {\lim }\limits_{z \to \infty } {\left( {1 + \frac{1}{z}} \right)^z}$$ de donde resulta que $$ln \left( e \right)+ {\sin ^2}(p) + {\cos ^2}(p)= {\sum\limits_{n = 0}^\infty {\left( {\frac{1}{2}} \right)} ^n}$$ puede ser escrita de la siguiente forma, más clara y transparente $$\ln \left( {\mathop {\lim }\limits_{z \to \infty } {{\left( {1 + \frac{1}{z}} \right)}^z}} \right) + {\sin ^2}(p) + {\cos ^2}(p) = \sum\limits_{n = 0}^\infty {\frac{{\cosh (q)*\sqrt {1 - {{\tanh }^2}\left( q \right)} }}{{{2^n}}}}$$ Por otro lado, si unificamos las expresiones simplificadas $$0!=1$$ Y $${\left( {{{\bar X}^T}} \right)^{ - 1}} - {\left( {{{\bar X}^{ - 1}}} \right)^T} = 0$$ Aplicando las simplificaciones descritas anteriormente, resulta que, de la ecuación: $$\ln \left( {\mathop {\lim }\limits_{z \to \infty } {{\left( {1 + \frac{1}{z}} \right)}^z}} \right) + {\sin ^2}(p) + {\cos ^2}(p) = \sum\limits_{n = 0}^\infty {\frac{{\cosh (q)*\sqrt {1 - {{\tanh }^2}\left( q \right)} }}{{{2^n}}}}$$ obtenemos finalmente, de forma totalmente elegante, legible, sucinta y, sobre todo, comprensible para todos, la bellísima ecuación: $$\ln \left( {\mathop {\lim }\limits_{z \to \infty } {{\left( {\left( {{{\left( {{{\bar X}^T}} \right)}^{ - 1}} - {{\left( {{{\bar X}^{ - 1}}} \right)}^T}} \right)! + \frac{1}{z}} \right)}^2}} \right) + {\sin ^2}(p) + {\cos ^2}(p) = \sum\limits_{n = 0}^\infty {\frac{{\cosh (q)*\sqrt {1 - {{\tanh }^2}\left( q \right)} }}{{{2^n}}}}$$ que, siendo honestos, es mucho más profesional que la parbulienta, vulgarísima, anodina y plebeya ecuación original $$1+1=2$$ Esta presentación fue confeccionada para los políticos, para que sepan que también los ingenieros poseemos la suficiente capacidad para complicar las cosas y hacerla de ...edo . . . . . . y en GRANDE!!


Pueden decirle de esta página a sus amigos ingenieros, quienes sabrán apreciar la humilde alma ingenieril que nos anima a seguir transformando al mundo. Atentamente Un Ingeniero;

Me uno al rechazo de ACTA

sábado, 3 de diciembre de 2011

Supercómputo

El mes pasado se me ofreció la oportunidad de asistir a la reunión en México de RISC (Red Iberoamericana de Súper Cómputo) que tiene su sitio en http://www.risc-project.eu y aunque nunca se me dio la oportunidad de poner en operación un cluster de computadoras en mi universidad, fue una experiencia muy agradable y profundamente reflexiva, me pude percatar de que se perdió una enorme oportunidad al no iniciar los trabajos en supercómputo hace más de 12 años cuando trate de echar a nadar un cluster basado en Linux, si alguien hubiera valorado lo que propuse en ese tiempo, tendríamos ya al menos 10 años de experiencia en este terreno que por los trabajos que vi se están desarrollando, ahora la tarea de ponerse al día se me antoja casi titánica.

La reunión se llevó a cabo en CONACYT y asistieron notables incestigadores del  Barcelona Supercomputing Center http://www.bsc.es como el Dr. Mateo Valero Cortés, http://personals.ac.upc.edu/mateo/  y el Prof. J.M. Cela, del Oil Exploration Simulation and Modelling, BSC. , no deja de sorprenderme el Dr. Valero, aparte de conocer uy bien el tema y estar a cargo de una importante supercomputadora, mantiene el humor que lo ha caracterizado.

Los proyectos fueron desde análisis de la calidad del aíre, exploración del lecho marino para buscar petróleo, hasta un trabajo con del FermiLab http://www.fnal.gov/,lo que en verdad me puso a trabajar las neuronas, lástima que no tengamos algunos proyectos así en mi universidad pero la reunión me motivo a montar mi cluster en el equipo que tengo a la mano, cosa que haré el semestre que entra.

Las platicas principales fueron las siguientes:

Lastest Development and trends in Supercomputing: Dr. Mateo Valero Cortés, 

El Dr. Valero planteo los futuros desarrollo del supercómputo, siendo uno de los principales problemas a atacar la energía consumida por las supercomputadoras, que si bien han aumentado en eficiencia de manera notable, su consumo también se ha visto incrementado de manera notable lo que impone severas restricciones por el costo de la energía, se habló por ejemplo que 10 supercomputadoras como la que en la actualidad ocupa el primer lugar dentro de las 500 mejores, consumiría prácticamente lo que produce una planta nuclear. Habló también de área de desarrollo como:
  • Modelado y simulación de alas en aviones que permite reducir el tiempo de uso de túneles de viento, que además les genera ingresos y proyectos. 
  •  ITER, un proyecto de gran complejidad ideado en 1986, para demostrar la factibilidad científica y tecnológica de la fusión nuclear. 
  • Biología Computacional para modelar el cerebro por ejemplo y para análisis del genoma, modelado de epidemias, etc.
  •  Modelado avanzado de temas relacionados con la exploración petrolera,  métodos avanzados computacionales y técnicas para exploración petrolera. 
  • Modelado de desastres naturales pero principalmente de Calidad del Aire. 
  • Nuevas arquitecturas, exa-computadoras, necesidades en el Software para suplir lo que el Hardware no puede llevar a cabo, supercomputadoras con NVidia, etc.
Latest development and trends in Supercomputing: Ron Perrot, Queen's University Belfast, Inglaterra  r.perrott@qub.ac.uk, http://www.cs.qub.ac.uk/~R.Perrott/   
  El Dr. Perrot habló también de las tendencias en supercómputo, haciendo nuevamente énfasis en el consumo de energía, este tema se ve que tiene prioridad por el costo de la energía, mencionó por ejemplo que a veces lo que falla es la colaboración y que el ancho de banda muchas veces no es el problema para proyectos de colaboración 
Nuevamente se trató lo de las nuevas arquitecturas (que en realidad son conceptos ya tratados pero modernizados por el hardware),  de que se va a requerir desarrollar con software lo que el hardware no puede ya que por ejemplo:
  • Mover los datos en la memoria es caro (consumo de energía) y será necesario ver cómo solucionar esto por software
  • Como atacar un problema en hardware heterogéneo que se debería solucionar por software
  • El incremento en poder de procesamiento cada década pero de la mano con el consumo de energía, que a lo mejor por software se puede solucionar
  • El Dr. Perrot habló también de HPC (High-performance computing) y sus perspectivas, que complementó la ponencia del Dr. Valero, haciendo mención a las arquitecturas que vienen como por ejemplo las supercomputadoras chinas con su procesador chino, la integración de ARM con NVidia para optimización de supercomputadoras, los desarrollos de IBM, etc.
 Le siguieron una serie de platicas de diversos temas que sería demasiado extenso para tratar en este blog por lo que solo dplatico una pequeña sinopsis de ellos.

Prof. Celso Garrido, HPC as Driver for Innovation, UAM. El profesor Garrido hablo de los problemas para justificar la inversión en este campo, buscar una serie de pasos que logren que las empresas al ver lo que pueden obtener del supercómputo, se decidan invertir en este terreno, buscar una especie de círculo virtuoso para generar la inversión.
También hablo de cómo la tendencia nos está llevando a la computación en la nube, y que deberíamos ver el supercómputo o el HPC como un servicio más de la nube hasta llegar a un ecosis-tema.

  • Mencionó que se necesita una política nacional o sistema nacional de investigación en este campo y de ver al HPC como una herramienta de innovación, para simular y para competir, quedando una unión virtuosa entre Universidades-Empresas.
Prof. Jose Augustin Reynoso, Air Quality Modeling: from Forecasting to Climate Change and the need of HPC and Supercomputing in this area. UNAM. El Profesor Reynoso hablo de los trabajos que desarrollan en calidad del aire, donde modelan el comportamiento de los contaminantes, principalmente del ozono, para tratar de dar una información de la calidad del aire en la ciudad de México, que se ve afectado por muchos efectos indirectos como 
  • volcanes, contaminación de otras áreas que incide en la ciudad.
  • Hablo de modelar los contaminantes producidos por un automóvil y tratar de hacer estudios del efecto de los autos en la ciudad, pero las limitantes en poder de cómputo hacen complicado estos trabajos, además falta desarrollo de software y el resultado si esto se supera podría ser un sistema de alerta en tiempo real, un modelo para predicción de contaminantes, una mejor toma de decisiones, etc.
Prof. J.M. Cela, Oil Exploration Simulation and Modelling, BSC. El profesor Cela es parte del Centro de Supercómputo de Barceelona, fue una extraordinaria presentación de los trabajos que desarrollan en la exploración para búsqueda de mantos petroleros en el mar, generando una imagen sísmica del subsuelo marino, un modelado de yacimientos y a futuro, un medio para determinar con precisión donde perforar en el mar.     Este centro desarrolla el Software lo que habla del adelanto tecnológico que tienen, además están trabajando en muchas áreas de importancia:
  • Simulación para evitar el uso de túneles de viento en alas de aviones
  • Simulación de corazón, ya tienen casi lista la simulación de un corazón de un conejo, con unas imágenes de muy buena calidad, ahí si se usa Elemento Finito en serio
  • Modelado de contaminación
  • A futuro piensan usar pulsos electromagnéticos para la búsqueda de yacimientos de petróleo, actualmente lo hacen con ondas mecánicas pero para avanzar requieren solucionar ecuaciones mucho más complicadas y los limita el poder de cómputo
Dr. Leonid Sheremetov, High Performance Computing in Petroleum Exploration and Production: IMP experience, IMP.

Esta parte fue más bien de los trabajos que desarrolla el Instituto Mexicano del Petróleo, dando una buena panorámica de que hacen en 3 rubros:

  • Simulación de suelo (Minería)
  • Sistemas de Información por el volumen de datos y porque buscan Pozos Inteligentes
  • Medición mediante SCADA
Prof. Hector Limon, Natural Disaster Mitigation: The LA Grid Inictative, University of Guadalajara. Hablaron del modelado para mitigar desastres naturales, modelando por ejemplo:
  •  Huracanes
  • Sismos
  • Calidad del aire
Se habló de la Iniciativa LA GRID de la Universidad de Guadalajara, en HPC.
Dr. Gerardo Zavala Guzmán, de la Universidad de Guanajuato, que trabaja en el Proyecto MINERvA http://minerva.fnal.gov/, proyecto de FERMILAB http://www.fnal.gov/ en un estudio de detección de Nutrinos, en Física de Altas Energías (en realidad Medias Energías), un proyecto en verdad impresionante en donde la supercomputación es básica. De hecho ya tienen una pequeña supercomutadora para trabajar en México con lo que obtienen en FERMILAB.

Prof. Mauricio Carrillo Tripp, CINVESTAV,Computational Biophysics: Current trends, needs and challenges in terms og High Perfomance Computing. Habló de la Biofísica Computacional (aplicaciones de las leyes físicas para entender la vida), por ejemplo modelando las células, que ha ido poco a poco avanzando a medida que el poder de cómputo avanza, hablan de poder modelar ya casi una célula completa.

Dr. Andrei Tchernyck, HPC in Mexico: Looking to the Future based on solid foundations, CICESE.  El Dr. Tchernyck hablo de los proyectos que tiene el CICESE, uno de ellos financiado por PE-MES en el Golfo de México, donde también evidenció el desastre de las universidades y centros en la adquisición de equipo por falta de una política nacional de adquisiciones, donde en ese centro tienen algunos sectores hasta con supercomputadoras y otros con una enorme carencia de equipo.


Prof. Adolfo Guzmán Arena, Centro de Investigación en Computación, Inst. Politécnico Nal.(IPN). Hablo de los trabajos que tienen en:

  • Generación de conocimiento automático a partir de documentos
  • De sus trabajos en hacer minería de datos a partir de información
    Del uso de la inteligen-cia artificial en generación y clasificación de información
  • High Performance Computing, Artificial Intelligence, implementation in México.
  • Habló del estado de HPC en México y sus perspectivas
Que después de esas sesiones, me tome muchas horas para reflexionar sobre la enorme necesidad que tenemos de una supercomputadora. 

Saludos


Alberto

sábado, 5 de noviembre de 2011

Expociencias 2011



 Para mí enorme fortuna recibí la invitación de participar como evaluador en el Concurso Nacional Expociencias 2011, organizado por CONACYT, la UPAEP y algunas organizaciones más, un evento que en verdad motiva porque se presentan niños, jóvenes y estudiantes de nivel superior a competir con sus proyectos, tocándome evaluar un proyecto de niños, 4 de nivel medio superior y 6 de licenciatura, todo en el marco del 40 Aniversario de CONACYT.
Muy emocionado y honrado por la distinción inmerecida a mi persona, viajé a la Ciudad de México para aisitir al Auditorio Nacional a ver con una gran alegría a los cientos de nuestros futuros investigadores exponer su creatividad, en verdad que hace a uno sentir que todavía hay esperanza para este país tan castigado por los mediocres políticos que lo gobiernan, ojalá este tipo de eventos se dieran más a menudo y ojalá participara mi Universidad en ellos.
 
Me tocó evaluar proyectos de Computación, triste paradoja pensé, mientras mi pobre Academia de Computación Básica me hace ver siempre que no debo formar parte de ella por no haber estudiado alguna carrera relacionada con computación o haber llevado un escueto diplomado de didáctica, se me invita a ser jurado en Computación en un evento nacional de CONACYT, ojala y no invaliden mi participación por solo ser un Ingeniero Mecánico Electricista con una Maestría en Ingeniería de Control.

Pero bueno, lo anterior es pecata minuta y realmente disfrute hasta el cansancio de ver tantos chiquillos y jóvenes mostrar su potencial científico, me sorprendieron sobre todo las jóvenes científicas que me dieron cátedra de estadísticas y aspectos técnicos de su proyecto, es enriquecedor ver a las niñas y jóvenes hacer acto de presencia en la ciencia.
 
Traté de seguir todas las instrucciones y de que mi opinión personal de los temas quedaran fuera y solo calificar lo que se pedía, también me sorprendió ver algunos trabajos escritos con todo el rigor que se requiere en un evento de este tipo, ver desde marcos teóricos, de referencia y estado del arte, hasta buenas hipótesis y referencias a trabajos futuros, salvo el uso correcto de guiones en un procesador de palabras, quede muy satisfecho de los resúmenes de los trabajos.

Los proyectos algunos fueron muy interesantes y con innovaciones acorde a los niveles de los que llevaron sus trabajos, fue también muy emotivo ver a profesores cubrir de su dinero parte de los gastos de sus estudiantes para presentarse al certamen, me hicieron creer nuevamente que hay excelente disposición de profesorado para colaborar en la educación, realmente da alegría ver a profesores de pequeñas comunidades poner dinero de su bolsa para que sus estudiantes se presenten y se motiven en la ciencia.

Al terminar de evaluar los 8 proyectos que me tocaron, de muy buena gana acepté evaluar algunos otros porque faltaron algunos jurados a esta bella experiencia, no saben lo que se perdieron pero bueno, evalué otros 3 proyectos para cubrir 11 en total, quedando si bien cansado de pasar tantas horas de pie pero terriblemente motivado a continuar con mi labor de maestro.
 
Solo me queda agradecer a CONACYT y la UPAEP por el honor de haber sido considerado para evaluar en este evento y dar gracias a Dios por haber podido emocionarme con los niños y jóvenes que participaron en este bello concurso de creatividad científica, en verdad que lo disfruté hasta el cansancio, viendo desde multimedia hasta laboratorios remotos, pasando por lógica difusa, identificación de imágenes, pantallas táctiles y juegos de computadora.

Alberto

lunes, 3 de octubre de 2011

Equipo de Laboratorio Didáctico y Software Libre

Según entiendo, un recurso didáctico puede ser cualquier material que se elabora con la intención de facilitar a quien enseña su función, y a la vez facilitar a quien aprende la suya, dicho de otra manera, es lo que me ayuda a enseñar y a que mis estudiantes aprendan. Todo claro está, en un contexto educativo.

Lo anterior viene a colación por una vieja teoría que nunca me ha gustado que dice que: “Se vale usar equipo de laboratorio didáctico en las universidades, siempre y cuando no se trate de software”, ya que se ve con muy buenos ojos que se adquieran, un par de pequeños motores y un transformador casi de juguete, para ensañar maquinas eléctricas pero si se trata de diseño gráfico, se considera un sacrilegio proponer que se use Gimp en lugar de Photoshop y si de Dibujo técnico hablamos, es necesario Autocad porque es absurdo siquiera pensar en usar QCad.

Estoy convencido de que el equipo didáctico de laboratorio es útil, sirve para enseñar y que se adquieran los conocimientos necesarios y da lo mismo enseñar servomotores con un servo didáctico que con uno industrial, la teoría es la misma para un motor de C.A. de 0.5 caballos de potencia, que para uno de 500, y puedo entender cómo funciona una columna de destilación con un prototipo didáctico, que con la que se usa en una planta química.

Desde mi punto de vista lo anterior también es válido cuando hablamos de computación, un estudiante puede aprender diseño gráfico con un software didáctico, puede aprender a dibujar con una aplicación de CAD didáctica, y puede adquirir todos los conocimientos necesarios de programación con herramientas libres como con software privativo, pero este último es muchas veces demasiado caro.

Sin embargo, a lo largo de muchos años de trabajar en una universidad pública he visto que lo anterior no se acepta, siempre que he propuesto que se enseñe edición de imagen con Gimp o Inkscape, la respuesta ha sido “No, el mercado laboral requiere que el estudiante sepa manejar el software que se usa”, a pesar de que en el mercado laboral, ese software se usa en más de la mitad de la veces de manera ilegal.

Si aplicamos el razonamiento anterior de que “Debemos enseñar a nuestros estudiantes a usar Windows, Autocad, Photoshop y Matlab porque así lo requiere el mercado de trabajo”, la consecuencia sería que “Las universidades deben tener una Siderúrgica para poder preparar ingenieros en metalúrgica”, “adquirir una termoeléctrica de 15.000 KVA con su subestación, para poder enseñar máquinas eléctricas”, lo que a todas luces es un absurdo, sin embargo, para el caso del Software, nadie dice que sea un absurdo.

Inclusive, en muchas ocasiones las universidades por falta de presupuesto, hasta llegan a cometer delitos al usar software como Autocad, Windows, Office, Phoshop, etc., de manera ilegal, con tal de no usar software didáctico o libre, que puede ser usado para este cometido.

Siendo honestos, críticos y consientes, podríamos enseñar conocimiento con aplicaciones de software libres en lugar de usar aplicaciones privativas, nadie niega que Autocad puede ser una excelente aplicación para dibujo técnico, pero enseñar a dibujar por computadora a 50 estudiantes, no requiere de adquirir 50 licenciad de Autodesk, ni para enseñar a programar aplicaciones de base de datos, no se requiere adquirir Oracle, con MySQL o PostgreSQL se puede hacer lo mismo.

Una universidad debe enseñar conocimiento no marcas comerciales, debe enseñar a usar una computadora y aplicaciones de software, pero lo anterior no implica que lo que se debe enseñar sea Windows, Office, Adobe, Corel o Autodesk, para aprender a usar una hoja de cálculo, se puede usar OpenOffice, Office, GNUmeric, etc., y esto es válido para cualquier área de la computación.

Alberto

jueves, 15 de septiembre de 2011

No todo en este mundo es Adobe

Mi post anterior se relacionó con el uso de LaTeX, una herramienta impresionante para producir documentos técnicos que contengan ecuaciones matemáticas, en esta ocasión voy a comentar un par de aplicaciones para edición de imágenes, Gimp para gráficas de mapas de bits e InkScape para gráficas vectoriales.

Como todo el mundo sabe la mayoría del diseño gráfico se encuentra dominado por los productos de Adobe, si bien es cierto Corel tiene una parte del mercado, cuando alguien habla de gráficos, generalmente se refiere a PhotoShop e Illustrator, aunque claro, los viejos productos de Macromedia ahora propiedad de Adobe como Freehand y Fireworks también suenan pero a un servidor lo que le interesa es el Software Libre por lo que como siempre a pesar de las críticas y el poco interés que este presenta para las universidades públicas, hablaré muy poco de esos productos.

Ya que mi actividad de docente se centra en una universidad pública, y el único lugar donde he sido medio aceptado por mi manera de ser de criticar lo que me parce que está mal, ha sido la E.E. de Computación Básica, en la que por mi rebeldía he incluido algo de edición de imágenes a pesar del disgusto de la Academia, y por desempeñarme además en una institución donde el dinero no abunda, el uso de productos privativos como los de Adobe por su elevado costo, no se tienen licenciados lo que me ha obligado, para mi enorme gusto a usar Software Libre.

Por todo lo anterior, he estado enseñando algo de edición de imágenes con dos bellas herramientas del Software Libre: Gimp e InkScape, ambas suficientes para las actividades básicas que un estudiante de licenciatura necesita para sus actividades académicas e inclusive hasta apara algunas de carácter semiprofesional para ellos y para un servidor.

Gimp es una alternativa NO Profesional para edición de imágenes de mapa de bits, con una muy buena cantidad de virtudes que lo hacen interesante para la docencia, si bien es cierto su profundidad de color está limitada a 16 bits vs los 32 bits de PhotoShop, para muchos casos y sobre todo para enseñar, esto no es una limitante grave, como muchas veces les digo a mis estudiantes, ¿Quién de ustedes es capaz de distinguir una tonalidad de color de entre 100 de ellas, creo que 16,536 colores es suficiente para muchas de las situaciones que se presentan en la universidad.

También es cierto que Gimp no soporta de manera nativa el modelo CMYK pero nuevamente pensando en la docencia, esto tampoco representa una limitación, además con otras herramientas como por ejemplo ImageMagick, es posible convertir una imagen en el modelo CMYK al modelo RGB que maneja Gimp, a lo mejor no es muy agradable para muchos usar un software en modo comando como requiere ImageMagick, pero basta escribir “convert -depth 8 -colorspace RGB archivo.psd archivo.tif” para pasar un archivo PSD con capas, a una imagen TIFF en RGB.

Salvo las 2 limitantes anteriores, Gimp me ha servido para que mis estudiantes hagan buenos trabajos con fotos, escudos, imágenes y hasta en ocasiones, me han sorprendido con su creatividad lo que me sigue motivando a usar Software Libre, además de que sus filtros y plug-ins incluyendo el experimental para manejo de CMYK llamado “Separation”, le adiciona características muy interesantes para el aficionado al diseño gráfico. Inclusive, para los amantes de Apple valdría la pena preguntar ¿A que debemos que Gimp esté presente en el iPhone?

Gimp por ejemplo me sirvió durante mucho tiempo para que los estudiantes de Computación Básica quitaran fondos a las imágenes institucionales, hicieran imágenes con transparencia y generaran buenos fondos para presentaciones, aparte de que al enseñarles las bases de la fotocomposición de imágenes les motivó a usar la herramienta y evitar así la mal llamada “piratería”, que un servidor prefiere llamar “uso ilegal de software”
Creo que Gimp es adecuado para un curso básico de edición de imágenes y no me explico porque no es usado como una herramienta más en la EE de Computación Básica, ojo Academia, otra mapas de mis severas críticas a como trabajas.

Por otro lado, Inkscape (o Dibuja Libremente), me ha llevado a seguir el camino que me llevó a Gimp pero frente a Illustrator o CorelDraw, cada vez que les enseño a mis estudiantes lo que se puede hacer con esta bella herramienta de software, no deja de sorprenderme sus reacciones, escucho exclamaciones como “es como Corel”, “que bonito”, etc., y muchas veces le tengo que dedicar más tiempo del que había planeado a mostrar las herramientas que tiene.

InkScape me ha servido tanto para enseñar las bases del dibujo con vectores, hasta para generar portadas de documentos, Posters para eventos, carteles, diagramas, etc., y nuevamente me pregunto ¿Academia, donde estás?, ¿Qué no has descubierto que sin gastar un solo centavo, podemos enseñar algo más a nuestros estudiantes?

Si bien es cierto que como Gimp, InkScape carece de algunas funcionalidades que a lo mejor para el uso profesional lo hacen poco atractivo, para la docencia es más que suficiente, el hecho de exportar a PDF y de que su formato nativo es el SVG, le brindan la posibilidad de interactuar con el mundo de Adobe y de Corel, aparte de que cuenta con una muy buena capacidad de convertir imágenes de mapa de bits a vectores gracias al uso de una herramienta del Software Libre llamada “Potrace”, que hace un trabajo bastante aceptable.
Si sumamos que aparte de todo puede exportar a muchos formatos gráficos, importar imágenes, usar gradientes, texto, y además una muy buna cantidad de efectos y plug-ins, InkScape creo que es una excelente herramienta didáctica para introducir a nuestros estudiantes al diseño gráfico, y nuevamente, ojo Academia, has dejado pasar por años la oportunidad de dar algo más a nuestros estudiantes.

No hago más largo este “largo post” y solo me queda recomendar a los pocos lectores que tiene este blog el uso de Gimp http://www.gimp.org/ y de Inkscape http://inkscape.org/ que estoy seguro no se arrepentirán.

Alberto

miércoles, 7 de septiembre de 2011

La otra cara del documento electrónico


Si bien es cierto Word de Microsoft ha dominado el mercado en lo que se refiere a procesamiento de texto en los últimos años, los que algunas ves hemos tenido la necesidad de escribir una nota para clase, un capítulo de libro o inclusive, un libro o documento técnico extenso que contenga ecuaciones matemáticas, terminamos usando una maravilla del software libre llamada TeX o su extensión más importante llamada LaTeX, que por no haber sido conocido y promovido en la mayoría de las universidades en México, queda reservado a un sector de privilegiados usuarios que lo descubren o lo han usado por venir del mundo de Unix.

LaTeX es un sistema de composición de texto, orientado especialmente a la creación de libros, documentos científicos y técnicos que contengan fórmulas matemáticas, se compone de un enorme número de macros de TeX, desarrollado Leslie Lamport en 1984, con la finalidad de facilitar el uso del lenguaje de composición tipográfica, llamado TeX, creado por Donald Knuth y donado al mundo.

LaTeX, es utilizado para la componer artículos académicos, tesis y libros técnicos, con una calidad tipográfica solo comparable a la de una editorial científica de primer nivel, se forma por macros  construidas a partir de comandos de TeX  que dicho de manera sencilla, es un lenguaje de bajo nivel para generar documentos técnicos, con la enorme ventaja de poder aumentar sus capacidades con los propios comandos de TeX.

Todo lo anterior ha convertido a LaTeX en una herramienta excepcional, práctica y una utilidad insuperable, extendiéndose su uso rápidamente entre un amplio sector científico y técnico, hasta el punto de llegar a convertirse en uso obligado en congresos y revistas a la hora de entregar artículos académicos y dado que su código es abierto, ha permitido que muchos usuarios agreguen nuevas capacidades o utilidades que extienden sus capacidades con objetivos muy variados, inclusive muy ajenos a la intención con la que TeX fue creado.

LaTeX es una arquitectura modular consistente en un compilador, que soporta las funcionalidades de versiones anteriores, pero permite incrementar su potencialidad y versatilidad añadiendo diferentes paquetes que se cargan si son necesarios. De esta forma, LaTeX dispone de casi cualquier paquete para todo tipo de objetivos, muchos de ellos incluidos en una distribución oficial y otros, desarrollados por terceros, que requieren de usos especializados.

A diferencia del uso de un procesador de palabras, LaTeX se basa en una filosofía de trabajo diferente, no es un sistema WYSIWYG (del inglés why you see is what you get, o lo que ves es lo que obtienes),  y se basa en el uso de comandos. Lo anterior se podría ver como una desventaja, sin embargo, a diferencia de los procesadores de texto, LaTeX permite al que escribe un documento, preocuparse únicamente en el contenido, sin tener que pensar en los detalles del formato.

Además de sus capacidades gráficas para representar desde ecuaciones hasta notación musical, permite estructurar rápidamente un documento compuesto de capítulos, secciones, notas, bibliografía, índices analíticos, etc., lo cual ofrece un medio idóneo para escribir artículos académicos y libros técnicos.

Con LaTeX, elaborar un documento requiere de dos pasos: crear mediante un editor de texto plano (como un Notepad) un archivo fuente que, con las instrucciones y comandos adecuados, forme el documento que queramos imprimir. La segunda parte consiste en procesar ese archivo; el compilador de LaTeX interpreta las órdenes escritas y crea el documento, dejándolo listo para ser enviado a la salida que queremos, ya sea el monitor o la impresora. Cada cambio que se quiera realizar en el documento, implica realizar los cambios en el archivo fuente y procesarlo de nuevo. Esto pudiera parecer poco práctico pero para quienes están familiarizados con la programación, donde el proceso de compilación se realiza con los lenguajes de programación de alto nivel como C, C++, etc.), verán que es un proceso análogo, cotidiano y normal.

LaTeX interpreta la forma final que debe tener el documento mediante el uso de unas etiquetas. Por ejemplo, la instrucción \documentclass{article}, le dice a LaTeX que el documento que va a procesar es un artículo. Para quien solo ha usado un procesador de palabras pudiera resultar extraño que en pleno siglo XX1, se siga usando algo que no es WYSIWYG, pero realmente las características que ofrece LaTeX siguen siendo únicas y fuera del alcance de un Word por ejemplo. Lógicamente ya existen herramientas que nos ayudan a escribir documentos en LaTeX de manera más visual (TeXNiCenter, TeXMaker y TeXWorks son 3 de las aplicaciones más usadas en Windows por ejemplo). A estas herramientas se les ha llamado WYSIWYM (Why you see is Why you Mean o, lo que ves es lo que quieres decir).

Una de las más grandes ventajas de LaTeX es que lo que obtenemos impreso es independiente del dispositivo usado (impresora, monitor, etc.) o del sistema operativo (MS Windows, MacOS, Unix, GNU/Linux, etc.) y se puede exportar a numerosos formatos  como Postscript, PDF, SGML, HTML, RTF, etc. LaTeX se puede encontrar además en forma de distribuciones (MikTeX para Windows, MacTeX para Mac y TeXLive para GNULinux) para todos los sistemas operativos que incluyen todo lo necesario para trabajar, lo que no sucede con Word por ejemplo.

Todo lo anterior me hace siempre reflexionar cuando uso LaTeX en mi Linux o mi Windows (que solo uso por obligación ya que es lo que se usa en mi universidad), la enorme falta de atención que hemos tenido hacia nuestros estudiantes al negarles la oportunidad de usar un sistema de creación de documentos tan poderoso y versátil como LaTeX, por mi parte, desobedeciendo las instrucciones de mi academia de computación básica, por lo menos se los muestro a mis estudiantes y les hago ver que es una opción que si bien es cierto, requiere de una curva de aprendizaje a veces complicada, los beneficios superan por mucho el uso de Word, a la hora de escribir un documento que contenga ecuaciones matemáticas.

Ojo academia, uno más de tus enormes olvidos en el contenido programático de la EE de Computación Básica, con LaTeX podríamos inclusive tener un estándar de tesis único para toda la universidad y no nos costaría un solo centavo de licenciamiento, además de que podríamos generar esas tesis en cualquier formato, unificando uno de los terrenos más importantes de la ciencia en universidades que es La Tesis.

Alberto

jueves, 18 de agosto de 2011

Material didáctico?

El día de ayer Hugo Arganda de la Universidad de Guadalajara me puso a reflexionar acerca del material didáctico que muy pocas veces se elabora en las universidades públicas de manera oficial, todo se inició porque un servidor colocó 3 enlaces a unos manuales de Office 2010 (Word y Excel) y Computación Básica, en la sección de valga la redundancia, computación básica en mi página personal de la Universidad Veracruzana para uso de mis estudiantes.

El material de Hugo que en una búsqueda con el amigo google encontré, me pareció de muy buena calidad, actualizado a las últimas versiones de Office y una buena introducción a Hardware y Software,  lo que me puso a reflexionar con lo que nosotros le ofrecemos a nuestros estudiantes, un CD con algo de Hardware y Software y material de Office 2007, realmente sentí algo de pena al ver que toda una academia no ha podido mantener material didáctico al día.

Todavía mayor fue mi reflexión al ver en mi página el comentario de Hugo diciendo “Es un placer ver que mis manuales (Computación básica, Word y Excel) les puedan servir de ayuda, en verdad me alegra”, lo que habla del verdadero espíritu del docente, dar lo mejor de uno a nuestros estudiantes y sentir alegría al ver que aprenden, de paso el comentario sirvió para que un servidor reparara el error de no haber puesto en la liga el autor de los documentos y se sintiera un poco mal por no dedicar el tiempo necesario a desarrollar mis propio material.

En un segundo post Hugo me comenta: "los escribí hace unos meses mientras daba clases de computación para apoyo de mis alumnos”, lo que me pone a pensar si mi academia de computación básica (que se reunía una vez al semestre y desde hace un semestre ya ni se reúne), debe existir, es increíble que más de 50 académicos, con la experiencia en una EE que tiene más de 10 años de existir, no puedan hacer en un par de meses algo semejante a lo que Hugo llevó a cabo solo, o en su defecto, desarrollar al menos un manual de prácticas oficial, un par de videos caseros o algo que haga ver que se trabaja.

También recordé como en mis inicios hace ya más de 25 años, cada semestre un servidor entregaba su material didáctico, apuntes de clase, ejercicios y listado de bibliografía para adquirir, recordé como al revisar la biblioteca y solo encontrar a unos 5 o 6 académicos que hacían lo mismo, fui perdiendo el interés de hacer de esta práctica un quehacer cotidiano,  recordé como en alguna ocasión en una conferencia alguien dijo que:
Los ingenieros en México egresan, acumulan una amplia experiencia, adquieren conocimientos, investigan sobre algunos temas y al final de su vida, se lo llevan a la tumba porque no escriben al menos un libro.

En su post Hugo comenta: "como dijo uno de mis profesores de la universidad, “El problema no es la falta de libros o información en México, sino que esos libros los escribieron personas con una cultura y manera de entender distinta a la nuestra”, y es por eso que debemos de escribir nuestro propio recurso de enseñanza.

Lo anterior nos dice que el problema sigue vigente, las instituciones de educación superior públicas, no hacen la tarea desarrollando sus propios libros que puedan ofrecer a sus estudiantes (la mayoría de escasos recursos), a un precio preferente, o por qué no, de manera gratuita ya que solo nos costaría el papel y la impresión.

Hago acto de conciencia, de constricción y como penitencia me pongo la meta de al menos hacer un manual este año para mis estudiantes, sé que no servirá de mucho porque la carencia de esto es muy amplia pero como en Software Libre, podré mi granito de arena

Alberto

lunes, 11 de julio de 2011

Un año más sin ti

La Universidad Veracruzana tiene en el Área de Formación Básica General, una importante área de formación común a todos los programas educativos, esta AFBG está formada por 5 Experiencias educativas: Computación Básica, Habilidades de Pensamiento Crítico y Creativo, Lectura y redacción a través del Análisis del Mundo Contemporáneo, Inglés I e Inglés II.

Estas EE están representadas en la Dirección del Área de Formación Básica mediante academias, y cada una de ellas mediante un Coordinador Estatal de cada academia, y un Coordinador Regional de las mismas. Esto permite la representación de cada EE que conformadas por academias, como su nombre lo indica, desarrollan las actividades propias del quehacer académico, revisión de planes y programas de estudios, elaboración de exámenes departamentales y muchas otras actividades importantes.

Dentro de las obligaciones de cada academia como lo marca la legislación universitaria, está la obligación de reunirse al menos una vez al mes, cosa que la academia de computación básica nunca ha cumplido, también está la obligación de elegir un representante estatal y regional, elaborar en tiempo y forma los exámenes departamentales y muchos actividades académicas como las antes mencionadas que tampoco se han cumplido al 100%.

Como podemos ver, el buen funcionamiento de estas academias es de primordial importancia para el desarrollo integral de nuestros estudiantes y el mal funcionamiento de las mismas, aparte de que viola la legislación universitaria, afecta lo más importante de una universidad, la formación de nuestros estudiantes.

El día 23 de abril de 2010 la Academia de Computación Básica quedo sin Coordinador Regional, a la fecha la segunda región más importante de la U.V. que es Veracruz - Boca del Río, quedo sin un coordinador regional que la represente en la toma de decisiones.

De la misma forma, este año 2011 esta Academia quedo sin Coordinador estatal por la renuncia del Lic. Carlos Escudero, quedando Computación Básica sin representación estatal para la toma de decisiones.

Estos 2 hechos solo me hablan del compromiso que existe entre los supongo más de 50 académicos que conforman la academia de una de las 4 E.E. del A.F.B.G. de la U.V., que sumado a la falta de reuniones mensuales que establece la legislación universitaria, solo pueden llevar al caos y al perjuicio de nuestros estudiantes, es increíble que a una de las EE que nació departamentalizada, se le deje en el olvido por falta de ganas, trivialidades, discusiones áridas del mejor perfil del docente, cotos de poder y muchas cosas más que no pertenecen a aspectos académicos.

En inaudito que esta EE tenga ya varios años sin que revise los contenidos programáticos y los materiales de apoyo a nuestros estudiantes, básicamente esta EE como está conformada solo cubre Windows, Internet, un reducido campo de la WEB 2.0 y Office, lo que deja fuera muchos aspectos importantes de las nuevas TICs, la edición básica de imágenes, audio, video y multimedia, no contempla el uso de redes Sociales ni las herramientas de colaboración como Windows Live, Google Docs, Slideshare, etc.

De igual forma los exámenes departamentalizados nunca llegan, no varían desde hace varios años y hacen que la evaluación de una EE que nació en forma departamental y con competencias, quede a la buena de Dios de cada uno de los docentes que la imparten, recuerdo que hace varios años cuando era Coordinador de la D.G.T.I., me toco ayudar en el proceso de aplicación del examen de competencias, el cual era como debe ser un examen de este tipo, el mismo contenido, la misma hora, las mismas versiones de software y los mismos requisitos.

A lo mejor este caos ha llevado a que poco a poco, nuestros estudiantes ya no presenten el examen de competencias, a que se vean diferentes contenidos y se apliquen diferentes niveles de complejidad en los exámenes y que esta EE, ya no cumpla con los objetivos que tenía cuando fue creada.

Comparando el funcionamiento de esta academia con las que participé en el Instituto de Ingeniería, extraño las reuniones mensuales, las discusiones álgidas y llenas de fervor académico, los diferentes puntos de vista soportados por razonamientos académicos y sentido común, en fin, todo lo que las academias deben ser, reuniones periódicas de quehacer académico.

Espero que este año si se pueda llegar a tener un coordinador estatal comprometido y un coordinador regional comprometido, espero que este año si se revisen los contenidos programáticos para beneficio de nuestros estudiantes y con ello, tener por fin reuniones mensuales  que desgasten el cerebro en discusiones sobre tópicos académicos.  

Espero que lo anterior no sea un sueño más de este humilde investigador que a pesar de sus limitaciones siempre ha tratado de que lo académico esté por encima de lo personal pero, solo el tiempo me dirá si fueron solo sueños o una motivante realidad

Gracias a quienes aparte de mi esposa, pierden un poquito de su tiempo leyendo mis elucubraciones, producto de mis sueños de ver que enn verdad nos preocupamos por nuestros estudiantes.

Alberto

martes, 31 de mayo de 2011

Mi experiencia en Proyecto Aula

Pues a unos cuantos días de que termine el plazo para entregar el diseño instruccional que pide el Proyecto Aula, veo con preocupación que la responsabilidad y la dedicación no es una de nuestras grandes fortalezas, aparentemente soy de los contados académicos que llevan avance, y eso solo me dice que o soy muy responsable o soy muy tonto.

Sin embargo pese a mi sentir de que es otra tarea más que va a quedar en el olvido tratare de terminar con la encomienda, que me imagino me dará 5 puntos para productividad que no recompensa el trabajo hecho hasta ahora y que escribiendo un articulo obtengo mas del triple.

Es difícil hacer un proyecto de diseño instruccional cuando la experiencia educativa tiene 5 años sin ser revisada en sus contenidos, claro que decir esto me va a dejar muy mal visto por mi estupenda academia de computación básica, que en lugar de hacer el trabajo académico que se requiere, se han preocupado más por ver quién debe impartir la experiencia educativa, eso sí, certificándose unos a otros sin tomar en cuenta que una certificación debe ser hecha por alguien externo para que tenga sentido.

Con lo anterior el problema ha sido que ¿Cómo diseñar un diseño instruccional si hay supuestamente un examen departamentalizado?, ¿qué tan justo es desarrollar una serie de tareas de mediana y alta dificultad para un estudiante que toma la experiencia educativa si el que presenta un examen tan simple como el que manda la academia, sale de esta en solo 2 horas y media?

También me pregunto ¿qué sentido tiene hacer un diseño instruccional si a lo mejor “Ojalá el señor, Ala, Buda, Zeus, etc. me escuchen”, se actualiza el contenido y tengo que volver a hacer todo el trabajo?, por otro lado me preocupa que si hipotéticamente 20 profesores deciden entrar al Proyecto Aula y generan 20 diseños instruccionales, los que resulten mal planeados o con errores y deficiencias, van a perjudicar a varios grupos de nuestros estudiantes, y al final de cuentas, ¿les vamos a remediar a ellos los errores de este experimento?

Para colmo de males, mi experiencia educativa “Computación Básica” es común a todos los programas educativos y he visto posturas que van desde “vamos a ligarla al perfil del programa educativo particular”, “vamos a plantear tareas con lo que se lleva en el programa educativo en particular”, etc., sin ver que debe ser común a TODOS los programas educativos, y me da miedo pensar en una academia de computación básica que ahora, quiera certificar expertos en cómputo y en cada programa educativo, llevando a esta EE la necesidad de contar con un experto en cómputo que además sea veterinario, ingeniero, pedagogo, enfermero, etc.

En fin, yo cumpliré y seguiré con mi idea de que debe ser común a todos los perfiles y estar ligada a la última experiencia educativa que lleva un estudiante en la U.V. que es "Experiencia Recepcional”, y las tareas serán enfocadas al diseño de una plantilla de tesis, una plantilla de ponencia, una plantilla de presentación, un currículum y una solicitud de empleo.

Además plantearé mi propia definición de competencia porque es ilógico que existan 2 de ellas incompletas, la oficial de U.V. (que se queda corta y está sin actualizar", y la de la academia que habla de Microsoft en lugar de conocimientos, lo que me deja aún más inconforme. Mi definición de competencia por lo tanto, evitando mencionar a la empresa de Vil Gates (porque no creo que sea lo mejor hablar solo de Windows, Office y productos de Microsoft”, en lugar de conocimientos) es la siguiente:

El estudiante usa la computadora, software e Internet como herramientas para comunicarse e interactuar con otras personas de diversas formas, obtener y procesar información de sus intereses y necesidades, redactar y presentar en  diversas formas documentos simples y complejos, su aprendizaje y autoaprendizaje, de manera autónoma, responsable ética y profesional, evitando el uso de software ilegal y respetando los derechos de autor y como apoyo tecnológico en sus actividades cotidianas y académicas, para el desarrollo de sus estudios profesionales y para formar parte de la sociedad actual.

En mi propuesta hablo de Procesador de PalabrasHoja de Cálculo, Navegador de Internet, etc. y no de Word, Excel e Internet Explorer, un universitario debe conocer más alla de Microsoft, porque ¿Donde está Apple en Computación Básica?, ¿Donde queda Linux?

Es ilógico que si la SEP en sus programas habla de Linux, OpenOffice, Software Libre, etc., en la Universidad Veracruzana en la experiencia educativa básica de computación, se ignore todo esto ¿o no?, ¿como queremos evitar el uso ilegal de software si solo promovemos software privativo que pocos de nuestros estudiantes pueden adquirir?

Ojalá mis comentarios agrios a mi academia no lleven a mi expulsión de ella pero si es así, pues ni modo, para mí la academia está primero que la política y los intereses personales pero eso sí, espero que si me expulsan al menos sea con un quórum legal que tiene varios años que no se da.

Saludos a mis único lector
Mi bella esposa.

miércoles, 18 de mayo de 2011

Un artículo más de nuestro proyecto

Este año iniciamos un proyecto en nuestro cuerpo académico: Desarrollo de software y prototipos para el modelado, simulación y control de sistemas dinámicos aplicados a la educación, en nuestro C.A. UV-CA-281 – DINÁMICA DE SISTEMAS, que pretende con Software Libre en la U.V., hacer un portal de laboratorios virtuales tratando de llegar hasta laboratorios remotos.

Tengo la suerte de contar con mis compañeros el Maestro Guillermo hermida Saba, El Maestro José Hernández Silva, el maestro Enrique Ladrón de Guevara y el Dr. Alfonso García Reynoso.

Como este es un blog personal, me permito platicar un poco de este proyecto:

Antecedentes:
En 1991 ante la carencia de equipo de laboratorio para la realización de prácticas en la Maestría en Ingeniería Eléctrica opción control que se impartía en el Instituto de ingeniería, se desarrolló un proyecto de investigación financiado por FOMES (FOMES 91-31-29), denominado “Construcción de Modelos a Escala de Procesos Industriales” con el objetivo de desarrollar equipo de laboratorio de  bajo costo para la Universidad Veracruzana.  Dicho proyecto permitió construir un par de prototipos para su uso en prácticas de laboratorio, así como  la elaboración de al menos tres tesis de maestría en el área de Ingeniería Eléctrica.
Planteamiento del problema:
El equipo de laboratorio en las carreras de ingeniería siempre ha sido muy costoso, esto ha ocasionado que exista una carencia importante de equipo donde desarrollar las prácticas de laboratorio necesarias de distintas Experiencias Educativas tales como: máquinas eléctricas, teoría de control, servomecanismos, automatización, etc., limitando de cierta manera el proceso de enseñanza aprendizaje y ocasionando una preparación incompleta de nuestros egresados.
Algo que podría solucionar esa carencia de equipo, es poner en marcha una serie de proyectos tendientes al diseño y fabricación de prototipos para la instalación de  laboratorios dentro de las misma universidad,  para contar con espacios reales y/o virtuales, donde se puedan realizar actividades para el modelado, simulación, estudios teóricos, computacionales y experimentales sobre sistemas de control, servomecanismos, procesos industriales, etc.
Justificación:
La escasez de laboratorios bien equipados en las áreas de ingeniería eléctrica, automatización, control de procesos, etc. justifica el desarrollo de proyectos de investigación tendientes a aminorar estas deficiencias. En este proyecto se pretenden obtener productos de investigación que permitan realizar prácticas de laboratorio para el control, simulación e identificación de sistemas dinámicos de manera real y/o virtual.
Objetivo General:
El objetivo principal de este proyecto es la construcción de un conjunto de prototipos físicos o virtuales, que permitan la realización de experimentos con fines pedagógicos o de investigación, dentro de los campos del modelado, identificación, simulación y control de sistemas dinámicos.
Objetivos particulares:
  1. Generar un entorno físico para la realización de experimentos de modelado, identificación, simulación y control de sistemas dinámicos de bajo y alto orden.
  2. Generar un entorno virtual para la realización de experimentos de modelado, identificación, simulación y control de sistemas dinámicos.
Metas.

  1. Construcción de al menos un prototipo físico para la experimentación con un sistema dinámico de cuarto y octavo orden
  2. Construcción de al menos un laboratorio virtual de sistemas dinámicos, basado principalmente en una plataforma de software libre accesible desde Internet o Internet 2.
  3. Desarrollo de un Cluster de Computadoras para la simulación de sistemas dinámicos.
  4. Desarrollo de una distribución de Linux en forma de Live CD/DVD o Live USB con herramientas de análisis y simulación de sistemas dinámicos.
  5. Publicación de al menos dos artículos científicos.
  6. Presentación de al menos una ponencia en un congreso nacional.
  7. Presentación de al menos una ponencia en un congreso internacional.
  8. Realización de una tesis de licenciatura
  9. Realización de una tesis de maestría.
Al menos ya llevamos 2 artículos publicados:

  • Artículo
  • Revista Internacional de Educación en Ingeniería, Volumen 4, No. 1, 2011: Los laboratorios virtuales y laboratorios remotos en la enseñanza de la ingeniería
  • Tipo de Publicación: Revista en Línea ISSN 1940-1115
  • Liga a Artículo: http://academiajournals.com/downloads/LorandiLabsEd11.pdf
  • Artículo
  • Revista de la Ingeniería Industrial, Volumen 5, No. 1, 2011: Controladores PID y controladores difusos
  • Tipo de Publicación: Revista en Línea ISSN 1940-2163
  • Liga a Artículo: http://academiajournals.com/downloads/Lorandi2011IE.pdf
Me siento contento porque será una forma de impulsar el uso de Software Libre

Saludos

Alberto

martes, 19 de abril de 2011

Conferencia y Taller de Virtualización

Ahora que por vacaciones hay algo de tiempo, escribo acerca de la Conferencia y Taller de Virtualización que se dio en la Facultad de Administración de esta Región Veracruz, en el marco de la Semana de la Ciencia y la Tecnología, el 13 de Abril de 2011.


Fue interesante asistir a una Facultad de esta Región a impartir una conferencia, interesante porque pocas veces se me considera para esto en mi propio terruño, siendo por ejemplo egresado de la Facultad de Ingeniería, solo en 2 ocasiones en mis 25 años de académico, se me ha invitado a dar una conferencia al lugar de donde egresé, una fue hace ya casi 22 años sobre electrónica automotriz, y la segunda hace un par de años sobre virtualización, donde se impartió un pequeño taller sobre Linux y se instalaron algunos equipos.

Creo que se cumplió con el compromiso, se habló de virtualización y un poco de cómputo en nube, mencionando que esta es un área importante de desarrollo, de donde puede salir trabajo, tema para la EE Experiencia Recepcional y de la necesidad de crear una EE sobre este tema.

Por la tarde mi buen amigo el M.S.I. José Hernández Silva, compañero de nuestro C.A. Dinámica de Sistemas UV-CA-281, me ayudo a dar un pequeño taller de Virtualización para los estudiantes de Sistemas Computacionales usando VirtualBox que creo o espero resultara interesante para los estudiantes.

Si alguien está interesado en la presentación la liga es:

http://www.uv.mx/personal/alorandi/files/2011/04/Virtualizaci%C3%B3n.pptx

Nuevamente me disculpo por usar Software Privativo pero que se puede hacer si es lo que piden y usan en la U.V., se que no es la mejor opción pero por lo pronto así queda en lo que mi lucha personal logra hacer eco.

Saludos

Alberto

Segundo Foro Universitario "Transformación con voluntad y espíritu crítico"

Nuevamente y a pesar de que en muchas ocasiones parece una lucha inútil o hablar con las paredes, me presenté al segundo Foro Universitario de la U.V., llamado "Transformación con voluntad y espíritu crítico" con una ponencia que trató por enésima vez de sensibilizar a la comunidad universitaria de la importancia del uso, desarrollo, difusión y promoción del Software Libre.


Hablé de la obscena cantidad de dinero que la sociedad paga por licenciamientos, de la poca atención que los académicos ponen a aplicaciones científicas como Scilab, Octave, Open Modelica, GNUPlot, Maxima, etc., también de aplicaciones libres que para la docencia pueden suplir perfectamente a aplicaciones comerciales como las de Adobe, Corel, etc.,

Nuevamente trate de hacer ver que las críticas que siempre aparecen cuando propongo usar Gimp en lugar de Photoshop, Inkscape en lugar de Illustrator o CorelDraw o Scribus contra InDesign, son “No son lo que existe en el mercado laboral”, “no son adecuadas porque no son lo que nuestros estudiantes encontrarán al egresar” a lo que siempre he respondido:

¿Porque entonces usar un transformador educativo en lugar de uno de 750 KVA como los que existen en la industria?

¿Por qué jugar con un laboratorio de control didáctico en lugar de adquirir un proceso industrial igual al que nuestros egresados encontrarán al salir?

¿Porque no adquirir un Horno como el de TAMSA para enseñar metalúrgica?

Nuevamente hable de la paradoja que se presenta de:

Pagamos licenciamientos para enseñar a usar el software que el mercado laboral usa pero, ese mercado laboral lo usa en un 60% de manera ilegal por lo que, preparamos a nuestros estudiantes para que al egresar vivan en la ilegalidad.

En fin, fue interesante y pues seguiré luchando .....

Saludos a todos

Alberto

P.D. si hay interesados en la ponencia, se puede encontrar en mi página personal de U.V. en Ponencias y Conferencias:

http://www.uv.mx/personal/alorandi/ponencias-y-conferencias-2/

Una disculpa por usar formatos privativos (Office 2010) pero es lo que pide mi Universidad.