Archivo de la ‘Facultad de Ingenieria Civil’

Actividad Intraclase No. 6

8085

ACTIV_ INTRAC_MICR_ No_6

DOCUMENTOS MICROPROCESADORES 2014

SYLLABUS ESTAND_MICRO_2014

Syllabus_2014-Oct-17_Microprocesadores

FORMATO PORT_MODIF

MICROPROCESADORES

SYLLABUS ESTAND_MICRO_2013

FORMATO PORT_MODIF

ACTIVIDAD EXTRACLASE No_1

Información importante para Sistemas Digitales II

SYLLABUS ESTAND_SIST_DIG I_2013

FORMATO PORT_MODIF

Sistemas Electrónicos Digitales – Enrique Mandado Pérez, Enrique Mandado y Yago Mandado – Google Books

NANOELECTRÓNICA – ELECTRÓNICA MOLECULAR –

NANOELECTRÓNICA – ELECTRÓNICA MOLECULAR-

 

Johnny Paul Novillo Vicuña

Formación:Ingeniero Eléctrico, Magíster en Educación Superior

Carrera profesional:Profesor Titular de la Escuela de Informática de la Universidad Técnica de Machala, Ex – profesor de la Escuela de Informática de la Universidad Tecnológica San Antonio de Machala, Ex – profesor del Instituto Superior Tecnológico El Oro.

 

  1. 1.    INTRODUCCIÓN

 

La nanoelectrónica estudia los fenómenos de transporte y distribución de carga y espín en la escala del nanómetro. Avances instrumentales en las últimas décadas han permitido la visualización en el espacio real y la manipulación controlada de losátomos. En paralelo las técnicas de litografía han ido reduciendo el tamaño de los motivos que se pueden fabricar, llegando en la actualidad la industria semiconductora a pistas de 90 nm en obleas de 300 mm de diámetro. Las dos aproximaciones científicas al mundo que separa lo atómico de lo macroscópico se conocen como “bottom-up” y “top-down”. Éste es un mundo mesoscópico, donde las propiedades físicas no escalan con el tamaño y los efectos cuánticos como el confinamiento y la coherencia propician que añadir o quitar un átomo, haga que cambien drásticamente las cosas; es decir, un mundo donde el tamaño realmente importa. La implementación de la nanoelectrónica en la tecnología actual será un proceso gradual, sustituyendo componentes individuales y eventualmente sistemas complejos. La microelectrónica, incluso con tamaños de puerta de transistor por debajo de los 50 nm, no es estrictamente una implementación de la nanoelectrónica, ya que no hay una propiedad física relacionada con la reducción de tamaño que esté siendo utilizada. Aun así, la necesidad de la nanotecnología, y de la nanoelectrónica en particular, se justifica a menudo por el hecho de que la ley de Moore — relacionando la mejora de prestaciones con el tamaño más pequeño de los dispositivos — llega a su fin. Las razones son tanto económicas como físicas. Sin embargo este es un argumento debatible. La tecnología del Silicio avanzará con dificultad por este camino durante una década o más. Se espera mantener la tendencia integradora usando dieléctricos de alta K basados en Hafnio y puertas metálicas. Se prevé también que las prestaciones continuarán mejorándose durante 15 años optimizando el diseño del chip, haciendo un uso más eficiente del área de la oblea de Silicio. En el futuro se desplazará la tecnología de dispositivos actuales a dispositivos de superficie, como en los dispositivos tipo trigate.

 

Una nueva tecnología sólo remplaza una existente con éxito, si mejora las prestaciones (incluyendo el coste efectivo) ordenes de magnitud, o si suministra características que la tecnología existente es físicamente incapaz de suministrar. Este es el reto, la búsqueda de nuevas propiedades, paradigmas y arquitecturas para crear la nueva nanoelectrónica.

 

 

 

  1. 2.    DESARROLLO

 

La nanoelectrónica es el punto de reunión donde la física, la ciencia de materiales, la química, la biología y la ingeniería electrónica se topan irremediablemente. Los circuitos integrados tradicionales consisten en una serie de interruptores eléctricos y cables tan pequeños y económicos como sea posible, idénticos y reproducibles en serie. Parece muy difícil -si no imposible- para la fabricación tradicional de semiconductores, producir circuitos con la exactitud necesaria a escalas atómicas. Es en la búsqueda de soluciones a estos problemas donde los investigadores intentan remplazar algunos conceptos básicos acerca de los dispositivos y sus interconexiones. En paralelo, los científicos intentan descifrar cómo la naturaleza se las arregla para almacenar y transmitir un conjunto de instrucciones que permiten desarrollar nanomáquinas que cumplen tareas de construcción avanzadas en el ámbito celular.

 

La Unión Europea ha clasificado (ENIAC, 2005 SRA) las necesidades de la sociedad en términos de dispositivos en 5 grupos: Salud, Movilidad y transporte, Seguridad, Comunicaciones, Educación y Entretenimiento. Todas ellas están englobadas conceptualmente en la Inteligencia del Entorno (Ambient Intelligence), en el sentido que los dispositivos reconozcan usuarios, y que ajusten sus funciones a los usuarios individuales. La nanoelectrónica juega un papel primordial en todos ellos, por mencionar algunos ejemplos: biosensores, bioimplantes, sistemas de navegación y deseguimiento de vehículos, energías alternativas, sistemas biométricos, baterías, etc.

 

Un material que ha recibido mucha atención recientemente es el grafeno. Esta monocapa de grafito, que hasta ahora ha sido muy popular en su versión cortada y enrollada (el nanotubo de carbono) es fascinante, y posiblemente más manejable como material. Esto ha sido señalado recientemente por Claude Berger (Berger, C. etal. Science 312, 1191–1196 (2006)), que ha estudiado el transporte en grafito ultrafino crecido en carburo de silicio. Ella encontró que la resistencia del grafito en un campo magnético exhibe el comportamiento peculiar del grafeno. Esto puede parecer sorprendente considerando que el grafito tiene varias monocapas. La explicación es que sólo la capa interfacial con el substrato está cargada apreciablemente, y que ésta intercara domina la conducción (PhysRevLett. 2007 Sep 21;99 (12):12680517930540.). Es de resaltar que el substrato usado es compatible con las técnicas de litografía estándar usadas por la industria semiconductora.

El estado del arte de la nanoelectrónica, se la puede clasificar en 6 apartados diferentes: Electrónica Molecular, Nanotubos de Carbono, Nanoestructuras semiconductoras, MEMS y NEMS, Interconectores, Espintrónica, y Computación Cuántica.

 

Electrónica Molecular

 

Es el estudio de propiedades moleculares que pueden llevar al procesado de la información. Desde principios de los años noventa, se está dedicando un gran esfuerzo científico al desarrollo de una nueva electrónica basada en la utilización de materiales moleculares electroactivos. Estos materiales son de naturaleza orgánica, incluyendo desde moléculas de pequeño tamaño (10 átomos) hasta polímeros (macromoléculas), y son capaces de responder a estímulos eléctricos y luminosos de forma similar a los conductores y semiconductores inorgánicos. Sin lugar a dudas, el acontecimiento que más ha contribuido al desarrollo de los materiales moleculares electroactivos fue el descubrimiento de los polímeros conductores (plásticos que conducen la electricidad), merecedor del premio Nobel de Química del año 2000. Nos encontramos, por tanto, ante nuevos materiales que nos ofrecen las propiedades eléctricas y ópticas de los metales y semiconductores, junto con las atractivas propiedades mecánicas, las ventajas de procesado y el bajo coste económico de los polímeros. A estas ventajas hay que añadir el gran potencial de la síntesis química para modificar las propiedades del material mediante cambios en la estructura química de los sistemas componentes.

Los materiales moleculares electroactivos están siendo desarrollados industrialmente para su utilización en aplicaciones tan diversas como baterías orgánicas, músculos artificiales, pantallas de teléfonos móviles, células solares, “narices” electrónicas, etc.

 

En el año 2001 se construyeron los primeros circuitos moleculares, utilizando unas moléculas llamadas rotaxanos, capaces de funcionar como un transistor. Aún se está muy lejos de poder ensamblar un chip utilizando estos materiales, pero las posibilidades son asombrosas.

 

Nanotubos de Carbono

 

Los nanotubos de carbono son moléculas tubulares de carbono, con propiedades que los hacen muy atractivos y potencialmente útiles para aplicaciones como componentes eléctricos y mecánicos extremadamente pequeños. Exhiben una dureza inusual, propiedades electrónicas únicas y son unos conductores de calor extremadamente eficientes. Las buenas propiedades eléctricas, mecánicas, y químicas de los nanotubos de carbono les hacen candidatos para fabricar dispositivos tales como transistores a escala nanométrica, pantallas de emisión de campo, actuadores, etc.

 

Investigadores del Rensselaer Polytechnic Institute, junto a un equipo internacional de colaboradores, han descubierto cómo soldar entre sí nanotubos de carbono. También se ha descubierto recientemente que las propiedades semiconductoras de los nanotubos de carbono cambian en presencia de campos magnéticos, un fenómeno único, y que podría causar su transformación en metales a incluso mayores valores de campo magnético.

 

En el 2004 se crecieron nanotubos de carbono de unos 4 cm. de longitud, y recientemente se han visualizado por TEM los átomos de Carbono individuales de SWT, demostrado la capacidad de soldarlos uno a continuación de otro y también de crecerlos sobre sustratos metálicos2.

 

Nanoestructuras Semiconductoras

 

Existen dispositivos tipo diodo y transistor que tienen el potencial de operar en la escala de los nanómetros, a velocidades ultra altas y con una densidad ultra alta de circuitos. Algunos de estos dispositivos pueden ser especialmente útiles debido a sus inéditas características de “output”, permitiendo realizar operaciones con menos componentes de los usuales. Esta clasificación englobaría: Resonant Tunneling Hot Electron Transistor RHET, Resonant Tunneling Bipolar Transistor RTBT, Quantum Effect Devices QED, ElectronWaveguide Devices, Quantum Well Modulation Base Transistors, Lateral Quantum Devices, Coulomb Blockade Devices, etc.

 

Estructuras de dimensiones nanoscópicas capaces de confinar electrones (incluso uno sólo) en niveles de energía discretos. Nanocristales de semiconductores muestran propiedades ópticas y electrónicas que dependen de su tamaño. Esto los hace extremadamente atractivos en aplicaciones como catálisis, celdas fotovoltaicas, láseres, transistores, etc.

 

NEMS y MEMS

 

Una derivación actual de la tecnología microelectrónica es el desarrollo de MEMS (Micro-Electro-Mechanical-Systems) chips de silicio y otros materiales en los que se integran no sólo funciones de tipo electrónico convencional (microprocesadores) sino también nuevos elementos funcionales de todo tipo (microsensores, microactuadores, microfluídica, micromotores, microcomponentes ópticos) fabricados mediante técnicas litográficas y de micromecanización por ataque químico anisótropo, similares a las ya conocidas en microelectrónica. Este campo no ha hecho más que nacer y ya se prevé su evolución inmediata, a partir de un desarrollo natural de ingeniería (top-down) no sólo reduciendo aún más su escala sino introduciendo aspectos y procesos típicos de la nanotecnología para dar lugar a los denominados NEMS. En algunos de ellos, por ejemplo, se integran dispositivos nanomecánicos, en otros, utilizando técnicas litográficas o de auto-ensamblado de moléculas orgánicas complejas como proteínas o fragmentos de ADN se integran funciones de reconocimiento bioquímico o biosensores. Importantísimo y relacionado con este, es el campo de los Biochips o “DNA Microarrays” que se ha desarrollado ya enormemente, permitiendo la identificación rápida y económica de grandes sectores del genoma. Actualmente existen ya unas 30 empresas fabricando y comercializando estos “Genome arrays” capaces de identificar del orden de 10.000 fragmentos en un solo chip. Se cree que no está lejos el momento en que se pueda comercializar un chip personal que analice todo el genoma y permita obtener un informe detallado de los condicionantes genéticos más relevantes de cada persona.

 

Existen muchas otras aplicaciones de los biochips. Por ejemplo, los microarrays de proteínas que se están introduciendo en el campo de la investigación en proteómica, permiten cuantificar todas las proteínas expresadas en una célula. El marcado de los fragmentos que hasta hace poco tiempo se hacía mediante sustancias fluorescentes ha progresado enormemente mediante la adopción de una técnica procedente del campo de los semiconductores y la optoelectrónica: el marcado, casi un

código de barras óptico, mediante nanopartículas de semiconductores, los llamados puntos cuánticos. Es un caso paradigmático de interacción interdisciplinar entre la bioquímica y la física cuántica que ha resultado extraordinariamente fructífero, pues estos nuevos marcadores son muy selectivos, estables y no interaccionan ni modifican químicamente las proteínas marcadas.

 

 

Figura 1. Nanogaps controlados fabricados en el IMM-CNM-CSIC (cortesía de Iván Fernández)

 

 

En este sentido, destacaría el campo de los NEMS actuados magnéticamente, con aplicaciones muy prometedoras en biotecnología, en instrumentación y en estudios fundamentales

 

Interconectores

 

Uno de los principales retos en la fabricación de dispositivos nanoelectrónicos es la conexión entre diferentes componentes. Para esto hay varios candidatos (Fig. 2).

 

Figura 2. Candidatos a interconectores en el nanomundo

 

 

El factor limitante de la tecnología semiconductora actual se debe a la disipación de energía. Esta disipación se acelera a velocidades de conmutación elevadas. En nanoestrucuras metálicas, tamaño del orden de la longitud de onda electrónica (unos pocos Å) y longitud menor que el recorrido libre medio (distancia entre colisiones) el transporte es balístico. Esto quiere decir que los electrones no disipan energía en la nanoestructura. Dependiendo de los diseños nanoelectrónicos, y especialmente para la computación cuántica, es importante que se mantenga la coherencia electrónica, que el portador de carga no pierda memoria de su fase. El estado superconductor por ejemplo, es un estado coherente macroscópico, con innumerables aplicaciones hoy en día. Los diseños de circuitos nanoelectrónicos usarán estas propiedades para realizar operaciones de forma rápida y eficiente.

 

Dentro de este campo cabría destacar los trabajos en las supramoléculas unidimensionales conductoras. Los polímeros metal-metal-haluro (MMX) demuestran interesantes propiedades eléctricas y magnéticas y se perfilan como una posible alternativa a los nanotubos de carbono.

 

Espintrónica y nanoestructuras magnéticas

 

Los dispositivos activos actuales están basados todos, en mayor o menor medida, en la carga del electrón, que fue descubierto a finales del siglo XIX.

Recientemente hemos aprendido a hacer uso selectivo de los dos canales de espín. El primer dispositivo espintrónico es el cabezal de lectura de información magnética basado en la magnetorresistencia gigante. El principio es la diferente tasa de dispersión (scattering) a que están sujetos los diferentes canales de espín. Esto hace que una orientación antiparalela de la imanación en las capas magnéticas presente un estado de resistencia alta, y que la orientación paralela presente un estado de resistencia baja. Estos dispositivos se encuentran en los cabezales de los discos duros y el descubrimiento del fenómeno ha merecido el premio Nobel de Física del año 2007 a Albert Fert y Peter Grunberg. En las tecnologías de grabación magnética se desarrollan esfuerzos considerables en medios con anisotropías oblicuas, en medios con la imanación perpendicular y en medios litografiados. Las memorias magnéticas basadas en las uniones túnel ferromagnéticas MRAM han llegado al mercado recientemente (Freescale (4 Mbit MRAM, en el 2006) NEC, Micromem…).

 

En algunos países europeos, hay una excelente comunidad de investigación en magnetismo, trabajando en varios problemas fundamentales y aplicados en la escala nanométrica.

 

Dentro de este campo cabe destacar los esfuerzos que se están realizando en:

_ inyección de espín polarizados

_ válvulas de espín

_ transistores de espín

_ túnel de espín

_ efectos dinámicos y de precesión

_ propiedades de redes de nanoelementos magnéticos

_ nanopartículas magnéticas

_ magnetismo en sistemas no convencionales

_ biomagnetismo

_ NEMS magnéticos

 

En este campo cabría destacar iniciativas como el Magnetic Race Track

Memory, (S. Parkin et al. IBM) donde la información se graba en paredes magnéticas, un “viejo” empeño de la comunidad magnética (como la memoria de burbuja, bubble memories de los años 70) de crear memorias magnéticas en dispositivos sin partes mecánicas móviles.

 

Aún compitiendo con tecnologías variadas (materiales de cambio de fase, memorias Flash….) en términos de velocidad de acceso, capacidad de información, fiabilidad, etc., se augura un buen futuro para el disco duro.

.

Computación Cuántica

 

En 1948 Claude Shannon define matemáticamente el concepto de información: con su Teorema de Codificación sobre un Canal sin Ruido, su Teorema de Codificación sobre un Canal Ruidoso y los códigos de corrección de errores. Esto da lugar a la Teoría de la Información. La información y la lógica, el arte de manejar la información, no pueden existir desligadas de las leyes de la naturaleza. En el mundo cuántico la

unidad de información es el “qubit” (bit cuántico). Además:

 

_ La información cuántica no se puede copiar con fidelidad perfecta;

_ La información cuántica se puede transferir con fidelidad perfecta;

_ La medida llevada a cabo en un sistema cuántico destruye la mayoría de la información contenida en él;

_ Sólo se pueden hacer predicciones probabilísticas sobre la base en la que un estado cuántico acabará después de la medida;

_ Ciertos observables no pueden tener simultáneamente valores precisos definidos;

_ La información cuántica puede estar codificada (y generalmente lo está) en correlaciones no locales entre las diferentes partes de un sistema físico;

 

Los requisitos para fabricar un ordenador cuántico son:

 

_ Un sistema físico escalable con qubits bien definidos.

_ La habilidad de inicializar el estado de los qubits a un estado arbitrario como | 0000….>.

_ Tiempos largos de coherencia, mucho más largos que el tiempo de operación de las puertas.

_ Un conjunto “universal” de puertas cuánticas.

_ Una medida específica de qubits.

_ La capacidad de convertir qubits estacionarios a viajeros.

_ La capacidad de transmitir fielmente qubits entre sitios específicos.

 

Se ha demostrado la fabricación de qubits en trampas de iones, cavidades de alto Q, RMN en líquidos y redes de uniones Josephson. Recientemente se ha demostrado experimentalmente que fotones únicos pueden transferir información cuántica entre qubits relativamente distantes

 

 

  1. 3.    CONCLUSIONES

 

La nanoelectrónica será, sin lugar a duda, la tecnología del futuro. Su implementación será un proceso gradual, sustituyendo componentes individuales y eventualmente sistemas complejos de forma integra. Las expectativas son grandes, aunque aún está por definir el heredero del transistor. Ése es actualmente el campo de investigación más activo, la fabricación y caracterización de componentes individuales que remplacen a los de Si. Ejemplos son los diodos moleculares, interruptores monoatómicos y el control del transporte en estructuras de punto cuántico. Un segundo campo, con bastante actividad, es la investigación en los posibles interconectores. Aquí, principalmente los nanotubos de carbono y estructuras metálicas u orgánicas auto-ensambladas, están siendo investigados. Muy poco trabajo se está haciendo en las arquitecturas, y el modelado con poder predictivo está en etapas incipientes. Esto es necesario para desarrollar reglas básicas ingenieriles para diseñar sistemas complejos. La situación de la computación cuántica es diferente. Hay mucha actividad en el desarrollo conceptual y de algoritmos. Las implementaciones experimentales de los qubits y del transporte de información entre qubits están comenzando. Quizá una excepción notable es el campo de la criptografía (transporte de información), donde la existencia de estados entrelazados de fotones viajando por guías convencionales ha sido demostrada experimentalmente.

A nivel más general, no está claro con toda certeza que sean los electrones el método elegido para procesar información a largo plazo. La nanoelectrónica debe ser entendida como un campo de investigación general, dirigido a desarrollar el entendimiento de los fenómenos característicos de los objetos nanométricos con la meta de explotarlos en el procesado de la información.

 

 

  1. 4.    REFERENCIA BIBLIOGRÁFICA

 

José Luis Costa-Krämer, en su artículo nanoelectrónica, electrónica molecular (2007)

 

Medición de la Sociedad de la Información

foto SIUTMACH

Ing. Fausto Redrován C., Mg.

Docente de la Escuela de Informática

“… Construir una Sociedad de la Información centrada en la persona, integradora y orientada al desarrollo, en que todos puedan crear, consultar, utilizar y compartir la información y el conocimiento, para que las personas, las comunidades y los pueblos puedan emplear plenamente sus posibilidades en la promoción de su desarrollo sostenible y en la mejora de su calidad de vida”. Éstas están entre las primeras líneas de la “Declaración de los Principios” de la Cumbre Mundial de la Sociedad de la Información (CMSI) que se realizó en su primera fase en diciembre de 2003, donde, en resumen, todos los países participantes, incluido Ecuador con su representante, respondían a la necesidad de garantizar la promoción de las Tecnologías de Información y Comunicación (TIC)[1] para el progreso de la sociedad tanto en los países desarrollados como los que están en desarrollo, y, más importante aún, determinaron un “Plan de Acción” que traduce la “Declaración de los Principios” en líneas de acción concretas con objetivos de desarrollo específicos. La segunda fase de la CMSI se realizó en noviembre de 2005 en Túnez, donde se ratificó el compromiso de los pueblos para mediar las TICs en el desarrollo hacia una Sociedad de la Información.

Desde antes de la Cumbre y desde entonces (en mayo pasado se realizó un foro en Ginebra presentando avances y enfoques nuevos), se ha tratado de que la sociedad se transforme en una Sociedad de la Información, meta alcanzable únicamente con el desarrollo de las TICs tanto en su acceso, utilización y conocimientos adquiridos. La pregunta sería ¿por qué la importancia de tal inclusión?

La respuesta está en la mal llamada Globalización (considera el desarrollo económico más que el social). El desarrollo tecnológico, en especial en la comunicación, permite a los pueblos, separados tradicionalmente por la geografía, cultura, política, idioma, religión y otros, prácticamente eliminar estas brechas e integrarse a una relación económica o social más sólida, natural, fluida y conveniente. Tomando en cuenta esto, los países más desarrollados, en su mayoría geográficamente en el hemisferio norte, no pueden simplemente aprovecharse de las limitaciones tecnológicas (en este contexto) de los pueblos del sur, y seguir creciendo como potencias económicas mientras nuestros pueblos ven limitados sus esfuerzos de desarrollo.

La CMSI, entonces, busca incluir a los pueblos “pobres” en el desarrollo de las TICs para que participen y se beneficien de la globalización, pero agregando el carácter social que se necesita para que la integración sea tanto humana como económica, pues todos estamos conscientes que la única manera de ir hacia una Sociedad de la Información es por medio de las TICs.

En tal virtud la CMSI intenta establecer criterios a seguir para fomentar y potenciar el desarrollo de las TICs, y existen indicadores para el seguimiento de dicho desarrollo. Tal vez el indicador más importante es el Índice de Desarrollo de las TIC (IDI[2]), cuyo principal objetivo es medir el potencial de desarrollo de las TIC, o la medida en que los países pueden utilizar las TIC para mejorar su crecimiento y desarrollo, en función de las capacidades disponibles y los conocimientos necesarios para utilizar eficazmente las TIC y maximizar su repercusión (Unión Internacional de Telecomunicaciones – UIT, 2010)[3].

En el informe de Medición de la Sociedad de la Información de la UIT del 2010, que toma en cuenta el desarrollo de la tecnología y su precios en cuanto a la telefonía fija, la telefonía móvil y la banda ancha fija, pone a Suecia, cuyo IDI pasó de 7,27 en el 2007 a 7,85 en el 2008, en el puesto #1, por lo que es el país más desarrollado en cuanto a las TIC, USA está 19 (6,54 en 2008) y Argentina 49 (4,38 en 2008) como el país de Latinoamérica con mejor uso de las TIC.

En Ecuador, según el informe, el IDI estaba en 2,73 en el 2007 y subió a 2,95 en el 2008, lo que indica que el desarrollo de las TICs en nuestro país ha reducido la brecha digital[4] existente, pero a un ritmo lento, es más, del puesto 85 en el 2007 bajamos al 87 en el 2008, lo que indica que otros países, como Vietnam e Irán(R.I.), han desarrollado mejor las TIC. En general, los países que se encuentran en las primeras posiciones del IDI son desarrollados, mientras que la mayoría de los que se encuentran al final de la clasificación son países con bajos ingresos pertenecientes al grupo de Países Menos Adelantados (PMA).

Entonces, disminuir esa brecha digital es la meta de todos los países y sociedades que quieren ser parte de esa inclusión digital, pensada como un problema colectivo y no individual, donde los beneficiarios sean las comunidades, familias y grupos sociales, al sacar provecho de las tecnologías, aunque el acceso sea limitado incluso. De ahí la importancia de las políticas de integración del conocimiento tecnológico considerando que hay varios modelos para posibles sociedades de la información que deberían adaptarse a las diferentes necesidades y objetivos comunes de un planeta tan diverso como el nuestro.

 

 Bibliografía

Cumbre Mundial de la Sociedad de la Información;. (2004). Declaración de Principios. CONSTRUIR LA SOCIEDAD DE LA INFORMACIÓN: UN DESAFÍO GLOBAL PARA EL NUEVO MILENIO, (pág. 10). Ginebra, Suiza.

Naciones Unidas. (agosto de 2010). Unión Internacional de Telecomunicaciones. Recuperado el 2 de septiembre de 2010, de http://www.itu.int/es/Pages/default.aspx

Unión Internacional de Telecomunicaciones – UIT. (2010). Medición de la Sociedad de la Información. Ginebra, Suiza.

Unión Internacional de Telecomunicaciones. (2008). Unión Internacional de Telecomunicaciones. Recuperado el septiembre de 2010, de Declaración de Principios de Ginebra: http://www.itu.int/dms_pub/itu-s/md/03/wsis/doc/S03-WSIS-DOC-0004!!MSW-S.doc

Unión Internacional de Telecomunicaciones. (2010). Unión Internacional de Telecomunicaciones. Recuperado el septiembre de 2010, de http://www.itu.int/dms_pub/itu-s/md/03/wsis/doc/S03-WSIS-DOC-0005!!MSW-S.doc

Unión Internacional de Telecomunicaciones. (16 de julio de 2010). Unión Internacional de Telecomunicaciones. Recuperado el septiembre de 2010, de Measuring the Information Society 2010: http://www.itu.int/ITU-D/ict/publications/idi/2010/Material/MIS_2010_Summary_S.pdf


[1] Sus siglas en inglés son ICT por Information and Communication Technologies

[2] Por sus siglas en inglés para ICT Development Index. El IDI, en una escala del 1 al 10, tiene 3 subíndices importantes para el criterio de Medición de la Sociedad de la Información: acceso, utilización y conocimiento

[3] ITU por sus siglas en ingles de International Conmunication Union. La UIT es la organización más importante de las Naciones Unidas en lo que concierne a las tecnologías de la información y la comunicación. En su calidad de coordinador mundial de gobiernos y sector privado, la función de la UIT abarca tres sectores fundamentales, a saber: radiocomunicacionesnormalización y desarrollo.

[4] Brecha digital es una expresión que hace referencia a la diferencia socioeconómica entre aquellas comunidades que tienen accesibilidad a Internet y aquellas que no, aunque tales desigualdades también se pueden referir a todas las nuevas tecnologías de la información y la comunicación (TIC), como el computador personal, la telefonía móvil, la banda ancha y otros dispositivos

SISTEMAS DISTRIBUIDOS

Ing. Bertha E. Mazón Olivo, Mg. Sc.

Bertha E. Mazón Olivo
Ingeniera en Sistemas
Magíster en Informática Aplicada
Docente Escuela de Informática

Bienvenido a este espacio dedicado al estudio de las siguientes asignaturas:

Sistemas Distribuidos

Utilitarios III

Estructuras de Datos II

Simulación de Sistemas

LOS SISTEMAS DISTRIBUIDOS

1. INTRODUCCIÓN.

Desde el inicio de la era de las computadoras en la década de los 40  hasta cerca de los 80, surgió la computación centralizada que consistía en algunos terminales, sin capacidad de procesamiento ni almacenamiento, conectados a un supercomputador que se encargaba de todo el trabajo. Al incrementar los usuarios y la necesidad de procesamiento, crece el riesgo de fallo del computador principal y de todo el sistema; cambiar o actualizar el supercomputador implicaba costos elevados. A partir de la mitad de la década de los ochentas aparecen dos avances tecnológicos fundamentales: el desarrollo de microprocesadores poderosos y económicos y el desarrollo de redes de área local (LAN) de alta velocidad, con posibilidad de conectar cientos de máquinas a velocidades de transferencia de millones de bits por segundo (Mbps). Estos avances propiciaron la evolución de sistemas centralizados a procesamiento distribuido y luego a cliente-servidor.

A continuación se describe panorámicamente los aspectos relevantes de los Sistemas Distribuidos.

 

2. DESARROLLO.

Las organizaciones a medida que se expanden en el mercado, crecen también los procesos y su información, haciéndose inminente la innovación continua de su sistema, de sus herramientas, la tecnología y sobre todo del personal capacitado.

Para la gestión de los sistemas de información  en las organizaciones que poseen cientos o miles de usuarios requiriendo acceso a dispositivos, programas y datos, es necesario pensar en sistemas distribuidos físicamente, pero lógicamente  integrados como si fueran un solo sistema.

2.1. ¿Qué es un Sistema Distribuido?

Un sistema cuyos componentes hardware y software se encuentran en computadores conectados en red, se comunican y coordinan sus acciones mediante el paso de mensajes controlados por protocolos prefijados por un esquema cliente servidor.

2.2. Características.

Algunas de las características  relevantes de los sistemas distribuidos son: la compartición de recursos, la concurrencia, la apertura, la escalabilidad, la carencia de un reloj global, la tolerancia a fallos de su componentes y sobretodo la transparencia. A continuación se describe cada una:

– Compartición de Recursos. Los recursos en un sistema distribuido están físicamente encapsulados en computadoras y  pueden ser accedidos por otras computadoras mediante la red; para que la compartición de recursos sea efectiva se requiere de un programa gestor de recursos, que ofrezca un interfaz de comunicación permitiendo su acceso, manipulación y actualización de una manera fiable y consistente; los usuarios se comunican con estos programas gestores para acceder a los recursos compartidos del sistema según dos modelos de sistemas distribuidos: el modelo cliente-servidor y el modelo basado en objetos.

–   Concurrencia. Permite que los recursos disponibles en la red puedan ser utilizados simultáneamente por los usuarios. Esto es posible, si varios procesos en una única máquina se ejecutan concurrentemente. Sin embargo, Si el computador está equipado con un único procesador central, la concurrencia tiene lugar entrelazando la ejecución de los distintos procesos. O, si la computadora tiene varios procesadores, entonces se pueden ejecutar los procesos en paralelo. En los sistemas distribuidos hay muchas computadoras, cada una con uno o más procesadores.

–   La apertura. Los sistemas distribuidos abiertos se basan en la provisión de un mecanismo uniforme de comunicación entre procesos e interfaces publicados para acceder a recursos compartidos. Los sistemas distribuidos abiertos pueden construirse a partir de hardware y software heterogéneo, posiblemente proveniente de vendedores diferentes. Pero la conformidad de cada componente con el estándar publicado debe ser cuidadosamente comprobada y certificada si se quiere evitar tener problemas de integración.

–   La escalabilidad. Tanto el software de sistema como el de aplicación no deberían cambiar cuando la escala del sistema se incrementa. La demanda de escalabilidad en los sistemas distribuidos ha conducido a una filosofía de diseño en que cualquier recurso simple hardware o software puede extenderse para proporcionar servicio a tantos usuarios como se quiera.  Cuando el tamaño y complejidad de las redes de computadores crece, es un objetivo primordial diseñar software de sistema distribuido que seguirá siendo eficiente y útil con esas nuevas configuraciones de la red. Las técnicas necesarias para conseguir estos objetivos incluyen el uso de datos replicados, la técnica asociada de caching, y el uso de múltiples servidores para manejar ciertas tareas, aprovechando la concurrencia para permitir una mayor productividad.

–   Tolerancia a Fallos. Cuando uno de los componentes de un sistema distribuidos falla, solo se ve afectado el trabajo que estaba realizando el componente averiado. Un usuario podría desplazarse a otra estación de trabajo y el proceso servidor podría ejecutarse en otra máquina sin problema. El diseño de sistemas tolerantes a fallos se basa en dos cuestiones, complementarias entre sí: redundancia hardware (uso de componentes redundantes) y recuperación del software (diseño de programas que sean capaces de recuperarse de los fallos). En los sistemas distribuidos la redundancia puede plantearse en un grano más fino que el hardware, pueden replicarse los servidores individuales que son esenciales para la operación continuada de aplicaciones criticas. La recuperación del software tiene relación con el diseño de software que sea capaz de recuperar (roll-back) el estado de los datos permanentes antes de que se produjera el fallo.

–   La carencia de un reloj global. Se refiere a que no existe una temporización general para la ejecución de los procesos entre los diferentes componentes, es más bien distribuida.

–   Transparencia. La transparencia se define como la ocultación al usuario y al programador, la separación de las aplicaciones y de los componentes de un sistema distribuido, de manera que el sistema se percibe como un todo, en vez de una colección de componentes independientes. La transparencia ejerce una gran influencia en el diseño del software de sistema. Existen varios tipos de transparencia, la más importante es la transparencia de red que abarca el acceso y localización de los recursos, simulando ser un sistema centralizado.

Ventajas de los Sistemas Distribuidos

  • La economía, es mucho más barato, añadir servidores y clientes cuando se requiere aumentar la potencia de procesamiento.
  • El trabajo en conjunto. Por ejemplo: en una fábrica de ensamblado, los robots tienen sus CPUs diferentes y realizan acciones en conjunto, dirigidos por un sistema distribuido.
  • La confiabilidad. Al estar distribuida la carga de trabajo en muchas máquinas, la falla de una de ellas no afecta a las demás, el sistema sobrevive como un todo.
  • Capacidad de crecimiento. Se puede añadir procesadores al sistema incrementando su potencia en forma gradual según sus necesidades.
  • La compartición de recurso. Se pueden compartir recursos, como programas, periféricos y datos
  • La Disponibilidad de los Dispositivos. Gracias a la redundancia los usuarios podrán acceder a los servicios a pesar de algún fallo.
  • Se logra una mejor comunicación entre las personas. Ejemplo: el correo electrónico.
  • Tienen mayor flexibilidad, la carga de trabajo se puede distribuir entre diferentes ordenadores

Leer Artículo Completo

SISTEMAS OPERATIVOS

blog1

 

Ing. Nancy Magaly Loja Mora, Mg.Sc.

CURRICULUM VITAE

 

Estimad@s estudiantes, reciban un afectuoso saludo.

En éste blog encontrarán algunos recursos relacionados con las asignaturas del área del Sistemas Operativos como son:

Sistemas Operativos I, Sistemas Operativos IV, Teoría de Sistemas Operativos y Aplicación de Sistemas Operativos.

 

SYLLABUS ESTANDARIZADOS

QUINTO SEMESTRE

Syllabus Sistemas Operativos I

SEPTIMO SEMESTRE

Syllabus Sistemas Operativos IV

NOVENO SEMESTRE

Syllabus Teoría de Sistemas Operativos

 

DÉCIMO SEMESTRE

Syllabus Aplicación de Sistemas Operativos

 

ARTÍCULO REVISTA ESCUELA DE INFORMÁTICA

RECURSOS EDUCATIVOS ABIERTOS (REA) INTEGRADOS A LOS CENTROS DE EDUCACIÓN SUPERIOR

Ing. Sist. Nancy Magaly Loja Mora                       nmloja@utmachala.edu.ec

Junio  05, 2011

Resumen

En este pequeño articulo expreso  mi aporte para explicar a breves rasgos los conceptos y también las bondades de los Recursos Educativos Abiertos (REA) también llamados Recursos de Aprendizaje Abiertos. En primera instancia hablo de los Objetos de Aprendizaje que son cualquier objeto que creamos los docentes utilizando la tecnología para ayudar al aprendizaje de nuestros estudiantes;  como por ejemplo una presentación en Power Point, una animación en FLASH, etc.

Luego hablo concretamente de los REA, que son plataformas desarrolladas en código libre bajo licencia GPL y finalmente menciono algunos casos de éxito de nuestro entorno.

1. OBJETOS DE APRENDIZAJE (OA)

 

“Un objeto de aprendizaje es cualquier entidad digital que puede ser usada, re-usada o referenciada para el aprendizaje soportado en tecnología”.

 

Los objetos de aprendizaje son una tecnología instruccional, es decir, sirven para que los estudiantes aprendan; dicha tecnología está basada en el paradigma de programación orientada a objetos, lo cual se refiere a crear componentes o módulos que pueden ser reutilizados en otros programas. Con la ayuda de la tecnología los docentes podemos crear “objetos” que luego de ser etiquetados pueden ser compartidos con los estudiantes y con otros docentes también. Para permitir esta compartición que está muy en auge en la Web 2.0 se utilizan varias plataformas disponibles en código libre que sirven como repositorios de información;  estas plataformas son las denominadas Recursos de Aprendizaje Abiertos.

 

objetoaprendizaje1

 

 2. RECURSOS EDUCATIVOS ABIERTOS

En la actualidad ha ido evolucionando un movimiento que inició con el desarrollo de Software de Código Abierto, continuó con la formulación de estándares de licenciamiento y concluyo con la creación y provisión de contenidos abiertos para cursos; esto último con mayor dinamismo en la educación superior. Como resultado de la evolución y agrupamiento de estos tres frentes, surge una iniciativa con una idea simple pero poderosa: El conocimiento es un bien público y tanto la tecnología en general, como Internet en particular, ofrecen una oportunidad extraordinaria para que cualquiera, desde cualquier sitio, comparta, use y aproveche este conocimiento.

En un foro llevado a cabo por la UNESCO en el año 2002, se adoptó la sigla  OER (del inglés Open Educational Resouces) y cuya traducción al español fue REA (Recursos Educativos Abiertos), para acuñar a este tipo de software que sirve para administrar y compartir el conocimiento.

Los recursos educativos abiertos comprenden:

a)   Contenidos educativos: cursos completos, materiales para cursos, módulos de contenido, libros de texto, materiales multimedia, exámenes, compilaciones, publicaciones periódicas (diarios y revistas), entre otras.

b)   Herramientas: Software para apoyar la creación, entrega, uso y mejoramiento de contenidos educativos abiertos. Esto incluye herramientas y sistemas para: crear contenido, registrar y organizar contenido; gestionar el aprendizaje y desarrollar comunidades de aprendizaje en línea.

c)   Recursos de implementación: Licencias de propiedad intelectual que promueven la publicación abierta de materiales, diseño, implementación, adaptación y localización de contenido, para apoyar el acceso al conocimiento.

 

Los docentes desde siempre hemos compartido nuestros materiales con otros colegas, la novedad de los REA radica en la facilidad con que estos materiales pueden ser distribuidos a través de internet, y además la seguridad legal que dan las licencias gratuitas y de contenido abierto para los autores y usuarios.

A continuación algunos ejemplos de Herramientas que forman parte de los Recursos Educativos Abiertos:

  • OpenCourse
  • EduCommons
  • Moodle
  • Dspace
  • Flickr
  • Slideshare
  • Wikipedia

 

 

  1. 3.   CASOS DE ÉXITO

Cómo casos de éxitos puedo mencionar algunos ejemplos de universidades de nuestro entorno que han integrado e implementado estas aplicaciones:

 

a)  Universidad Técnica de Machala: 

La universidad Técnica de Machala, en el año 2010 integró a su Sistema Académico SIUTMACH, el aula virtual a través de la plataforma Moodle.

Este software le permite tanto al estudiante como al docente distribuir materiales de aprendizaje, crear y gestionar foros, realizar evaluaciones en línea  a los estudiantes, evaluar tareas, integrar recursos de Internet, crear glosarios y diccionarios, gestionar el tiempo a través de un calendario global de distintas asignaturas, ofrece además  herramientas de comunicación entre los estudiantes, como la mensajería instantánea, permite la tutoría electrónica en privado o en grupo, calcula estadísticas, gestiona las calificaciones, entre otro beneficios.

 

objetoaprendizaje2

 

Esta implementación es un aporte de los egresados de la Escuela de Informática a la Comunidad Universitaria;  a continuación les menciono el URL para acceder a la aplicación.

 

http://moodle.utmachala.edu.ec/cursosvirtuales/

 

b)  Universidad Técnica Particular de Loja (UTPL)

La Universidad Técnica Particular de Loja, desde el año 2009 tiene implementado el software DSpace.

DSpace es una  plataforma de código abierto que provee herramientas para la administración de colecciones digitales, y comúnmente es usada como solución de repositorio institucional. Soporta una gran variedad de datos, incluyendo libros, tesis, fotografías, filmes, video, datos de investigación y otras formas de contenido. Los datos son organizados como items que pertenecen a una colección; cada colección pertenece a una comunidad.

Antes de implementarlo la UTPL realizo un estudio de la cantidad de    material y objetos de aprendizaje que tenían distribuidos en los diversos departamentos de la Universidad; llegando a la conclusión que necesitaban un software que permita administrar dichos recursos.

 

A continuación ajunto URL de acceso al repositorio Dspace de la UTPL

http://repositorio.utpl.edu.ec/

c)   APORTES FUTUROS EN NUESTRA UNIVERSIDAD

Motivados con las contribuciones y esfuerzos de varios Centros de Educación Superior, los estudiantes de Noveno Quimestre de la Escuela de Informática se encuentran desarrollando Objetos de Aprendizaje para la Asignatura de Sistemas Operativos con la Herramienta de Diseño y Animaciones Web FLASH. Pretendemos que estas simulaciones sean utilizadas para facilitar el aprendizaje de Sistemas Operativos de las generaciones futuras.

  1. 4.   CONCLUSIONES
  • Los centros de Educación Superior, hoy en día podemos aprovechar las bondades de la  Tecnología y herramientas de la Web 2.0 para facilitar el PEA (Proceso Enseñanza-Aprendizaje).
  • Las fundaciones a nivel mundial de software libre nos facilitan la implementación de estas plataformas (REA) al desarrollarlas y ponerlas disponible a la comunidad bajo licencias libres (GPL).
  • He mencionado solo dos universidades que poseen implementadas estas soluciones informáticas  pero a nivel de Ecuador y mundial podría decir que son casi todas las que tienen montado al menos uno de estos software: es decir se ha creado una cultura informática.

 

ADMINISTRACIÓN, MARKETING, ECONOMÍA, ORGANIZACIÓN Y COMUNICACIÓN, REDACCIÓN DE INFORME, PROYECTOS

ADMINISTRACIÓN

CONCEPTO.- Es una ciencia social compuesta de principios, técnicas y prácticas cuya aplicación a conjuntos humanos permite establecer y mantener sistemas racionales de esfuerzo cooperativo a través de las cuales se puede alcanzar propósitos comunes que individualmente no es factible lograr.

Es un proceso de planificación, organización, dirección y control de trabajo de los miembros de la organización y de usar los recursos disponibles de la empresa para alcanzar las metas establecidas.

IMPORTANCIA DE LA ADMINISTRACIÓN.- Es necesario mencionar algunos de los argumentos más relevantes que fundamentan la importancia de estta disciplina.

UNIVERSALIDAD.- Se demuestra que ésta es imprescindible para el adecuado funcionamiento de cualquier organismo social.

SIMPLIFICACIÓN DE TRABAJO.- Al establecer principios, métodos y procedimientos para lograr mayor rapidez y efectividad.

PRODUCTIVIDAD Y EFICIENCIA.- De cualquier empresa están en relación directa con la aplicación de una buena administración.

Bibliografía:

  • Introducción a la teoría General de la  Administración Idalberto Chiavenato Ed. Mc Graw Hill Séptima Edición.

MARKETING

CONCEPTO.- Es un sistema total de actividades mercantiles encaminadas a planear, fijar precios, promover y distribuir productos y servicios que satisfacen las necesidades de los consumidores potenciales.

Marketing es tener el producto adecuado; en el momento adecuado, adaptada a la demanda, en el tiempo correcto y con el precio más justo.

OBJETIVO.- Analizar la gestión comercial de las empresas, para captar, retener y fidelizar a los clientes a través de la satisfacción de sus necesidades.

IMPORTANCIA.- Desde el punto de vista de la empresa el marketing genera rentabilidad y por parte del consumidor cubre sus necesidades, le facilita un  omento feliz.

Bibliografía:

  • Marketing Charles W. Lamb, Jr, Joseph F. Hair Jr. Carl Mc Daniel, Sexta Edición.

ECONOMÍA

CONCEPTO.- Es el estudio de la forma en que las sociedades deciden que van a producir, cómo y para quién, con los recursos escasos y limitados para satisfacer necesidades y deseos ilimitados.

La necesidad de elegir es innata y puede hacerse aun sin darnos cuenta al elegir, de hecho estamos rechazando algo. Siempre que elegimos creemos que estamos optando por lo mejor, así que el costo de oportunidad suele ser el mismo, ejemplo necesidad de comer: puedo elegir una comida con pollo y rechazar el pescado; ver una película en televisión o ir al cine.

Bibliografía:

  • Economía de Cristian Larroulet  Vignau, Francisco Mochon Morcillo Mc Graw-Hill

ORGANIZACIÓN COMUNICACIÓN

CONCEPTO DE COMUNICACIÓN.- Es un proceso donde se utilizan todos los medios de persuasión que se tenga al alcance para hacernos entender.

La comunicación es el intercambio de ideas, pensamientos o a su vez de acciones.

ORIGEN.- Desde hace millones de años los animales tenían la necesidad de comunicarse y empezaron a producir ruidos, ejemplos animales, cuando una abeja encuentra néctar ésta regresa a su colmena a dar la noticia; de ahí los hombre empezaron a tallar piedras, buscando todos los medios para lograrlo.

PROCESO: EMISOR.- Quien envía el mensaje

MEDIO:- Cómo se va a transmitir el mensaje.

RECEPTOR.- Quien recibe la información.

MENSAJE.- Información a enviar.

RUIDO.- El factor que altera el mensaje

RETROALIMENTACIÓN.- Comprobación del mensaje recibido

LA COMUNICACIÓN CON RESPECTO A LAS RELACIONES HUMANAS.- Por medio de la comunicación se crea las relaciones con las demás persona, cada relación es única.

PROYECTOS

“Un proyecto es una herramienta o instrumento que busca recopilar, crear, analizar en forma sistemática un conjunto de datos y actividades, para la obtención de resultados esperados. Es de gran importancia porque permite organizar el entorno de trabajo”

Un proyecto surge como respuesta a la concepción de una “idea” que busca la solución de un problema o la forma de aprovechar una oportunidad de negocio.

Bibliografía:

  • SAPAG Nassir, Fundamentos de Preparación y Evaluación de Proyectos

 

REDACCIÓN DE INFORMES

CONCEPTO DE REDACCIÓN.- Es un proceso que permite la expresión de las ideas mediante la escritura, reunir – ordenar.

CONCEPTO DE INFORME.- Es una exposición descriptiva o analítica del hecho.

COORDINADOR DE LA CARRERA DE INGENIERIA DE SISTEMAS

coordinador

ING. SIST. JIMMY MOLINA RIOS

COORDINADOR DE LA CARRERA DE INGENIERIA DE SISTEMAS