Inicio › Foros › Carreras de Distintas Facultades y Universidades › Facultad de Ciencias Economicas, Carrera de Contador Publico, Administracion de Empresas y Otras › Teoria general de los sistemas
- Este debate tiene 5 respuestas, 1 mensaje y ha sido actualizado por última vez el hace 13 años, 4 meses por Anónimo.
-
AutorEntradas
-
junio 18, 2011 a las 4:33 pm #2476AnónimoInvitado
Buenas! Acá les dejo la teroría general de los sistemas para que se introduzcan un poco más en el tema. Saludos!!
Teoría general de los sistemas
[i]»Los factores esenciales de esta teoría se componen de:
Entropía: Viene del griego ἐντροπία (entropía), que significa transformación o vuelta. Su símbolo es la S, y es una metamagnitud termodinámica. La magnitud real mide la variación de la entropía. En el Sistema Internacional es el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.
Entalpía: Palabra acuñada en 1850 por el físico alemán Clausius. La entalpía es una metamagnitud de termodinámica simbolizada con la letra H. Su variación se mide, dentro del Sistema Internacional de Unidades, en julio. Establece la cantidad de energía procesada por un sistema y su medio en un instante A de tiempo y lo compara con el instante B, relativo al mismo sistema.
Negentropía: Se puede definir como la tendencia natural que se establece para los excedentes de energía de un sistema, de los cuales no usa. Es una metamagnitud, de la que su variación se mide en la misma magnitud que las anteriores.
Aplicando la teoría de sistemas a la entropía, obtenemos lo siguiente: Cuanta mayor superficie se deba de tomar en cuenta para la transmisión de la información, esta se corromperá de forma proporcional al cuadrado de la distancia a cubrir. Dicha corrupción tiene una manifestación evidente, en forma de calor, de enfermedad, de resistencia, de agotamiento extremo o de estrés laboral. Esto supone una reorganización constante del sistema, el cual dejará de cumplir con su función en el momento que le falte información. Ante la ausencia de información, el sistema cesará su actividad y se transformará en otro sistema con un grado mayor de orden. Dicho fenómeno está gobernado por el principio de Libertad Asintótica.
[editar]Enumeración de principios
Principio de libertad asintótica: Cuando el sistema aparenta alcanzar el estado preferente, es indicación de que los medios por los cuales transfiere la información no están capacitados para procesar la suficiente como para adaptarse a las nuevas necesidades impuestas por el cambio de un médio dinámico. Por lo que el medio cambia más rápido de lo que el sistema podrá adaptarse dentro de su periodo de existencia. Esto marca el paso del tiempo de forma relativa al sistema, observando el futuro más lejano para dicho sistema como el estado en el que las propiedades que lo definen como sistema X dejan de expresarse, siendo de uso por otros sistemas que demandan fragmentos de información útiles. Esto define otro principio base de los sistemas: La simetría.
Principio de simetría discreta (TGS base): La simetría física es aquella que solo se puede conceptualizar en la mente, pues dicho estado del sistema inhibe todo tipo de comunicación, al ser esta altamente incierta o con un grado de incertidumbre tan extremo, que no se pueden obtener paquetes claros. Por lo que se requiere un estudio profundo del sistema investigado en base a la estadística.
[editar]Proceso de estudio
Proceso 1: Se registra lo directamente observado, se asocia un registro de causa y efecto, y para aquellas que han quedadeo huérfanas (solo se observa la causa pero se desconoce el efecto) se las encasilla como propiedades diferenciales. Estas propiedades nacen de la necesidad de dar explicación al porqué lo observado no corresponde con lo esperado. De esto nacen las propiedades emergentes.
Proceso 2: Se establecen unos métodos que, aplicados, rompen dicha simetría obteniendo resultados físicos medibles en laboratório. Los que no se corroboran, se abandonan y se especulan otras posibilidades.
Resumen general:
La entropía está relacionada con la tendencia natural de los objetos a caer en un estado de neutralidad expresiva. Los sistemas tienden a buscar su estado más probable, en el mundo de la física el estado más probable de esos sistemas es simétrico, y el mayor exponente de simetría es la inexpresión de propiedades. A nuestro nivel de realidad, esto se traduce en desorden y desorganización. En otras palabras: Ante un medio caótico, la relación tensorial de todas las fuerzas tenderán a dar un resultado nulo, ofreciendo un margen de expresión tan reducido que, por sí solo es inservible y despreciable.
La dinámica de estos sistemas es la de transformar y transferir la energía, siendo lo inaprovechable energía que se transforma en una alteración interna del sistema. En la medida que va disminuyendo la capacidad de transferencia, va aumentando la entropía interna del sistema.
Propiedad 1: Proceso mediante el cual un sistema tiende a adoptar la tendencia más económica dentro de su esquema de transacción de cargas.
La dinámica del sistema tiende a disipar su esquema de transacción de cargas, debido a que dicho esquema también está sometido a la propiedad 1, convirtiéndolo en un subsistema.
Lo realmente importante, no es lo despreciable del resultado, sino que surjan otros sistemas tan o más caóticos, de los cuales, los valores despreciables que resultan de la no cancelación absoluta de sus tensores sistemáticos, puedan ser sumados a los del sistema vecino, obteniendo así un resultado exponencial. Por lo que se asocian los niveles de estabilidad a un rango de caos con un resultado relativamente predecible, sin tener que estar observando la incertidumbre que causa la dinámica interna del propio sistema.
En sistemas relativamente sencillos, el estudio de los tensores que gobiernan la dinámica interna, ha permitido replicarlos para su utilización por el hombre. A medida que se ha avanzado en el estudio interior de los sistemas, se ha logrado ir replicando sistemas cada véz más complejos.
Aunque la entropía expresa sus propiedades de forma evidente en sistemas cerrados y aislados, también se evidencian, aunque de forma más discreta, a sistemas abiertos; éstos últimos tienen la capacidad de prolongar la expresión de sus propiedades a partir de la importación y exportación de cargas desde y hacia el ambiente, con este proceso generan neguentropía (entropía negativa), y la variación que existe dentro del sistema en el instante A de tiempo con la existente en el B.»[/i]junio 21, 2011 a las 3:54 pm #2510AnónimoInvitado¿Para que sirve esta teoría? ¿En que se aplica? :S
junio 25, 2011 a las 4:22 pm #2546AnónimoInvitadoPareciera una teoria general verdad? o es algo relacionado a computadoras?
junio 25, 2011 a las 5:30 pm #2550AnónimoInvitadoExacto! como su nombre lo indica es la teoria general de CUALQUIER sistema. Desde uno de computacion hasta el mismo cuerpo humano 😉
Dami
julio 11, 2011 a las 4:31 pm #2676AnónimoInvitadoPor ejemplo: el cuerpo humano entra bajo estas reglas?
julio 19, 2011 a las 10:12 pm #2750AnónimoInvitadoExactamente! El cuerpo humano es un buen ejemplo de esto 😉
Saludos
Dami -
AutorEntradas
- Debes estar registrado para responder a este debate.