"Una vez conocí a dos hombres que estaban tan completamente de acuerdo que, lógicamente, uno mató al otro"

Lectura destacada

El Big Bang no necesita de un Dios para ocurrir

Intelectuales turcos se disculpan por el genocidio armenio

“No puedo aceptar conscientemente la indiferencia hacia el gran desastre sufrido por los armenios otomanos en 1915 y su negación. Rechazo la injusticia y, voluntariamente, comparto los sentimientos y dolores de mis hermanos y hermanas armenios y me disculpo ante ellos”. Este es el texto de la campaña presentado por un grupo de intelectuales turcos entre los que se encuentran el periodista Ali Bayramoglu y los académicos Baskin Oran, Ahmet Insel y Cengiz Aktar.

La campaña, que intentará ampliar más apoyo a través de internet, busca sensibilizar a la sociedad turca para “que sientan la tragedia de sus hermanos armenios en su conciencia”, según explicó Baskin Oran a la Agencia Efe, en referencia a la matanza de cientos de miles de personas en 1915, que Armenia califica como genocidio y es negado por Turquía.

En declaraciones al diario Vatan, Cengiz Aktar aclaró que “nos disculpamos por no poder discutir, y no hablar abiertamente sobre este asunto durante tanto tiempo, casi cien años”. En Turquía no sabemos qué les sucedió a los armenios -continuó-, fuerzan a la gente a olvidarlo, pues el tema es muy problemático. Los turcos han oído la versión de sus ancianos, sus abuelos. Pero, no es una narración histórica objetiva. Por ello, hoy mucha gente en Turquía, incluso con las mejores intenciones, piensa que a los armenios no les sucedió nada.

Aktar denunció el que la historia oficial haya estado diciendo que este incidente fue secundario, que las masacres fueron poco importantes, e incluso mutuas, y explicando lo ocurrido como algo comprensible en las condiciones bélicas de la primera guerra mundial.

Sin embargo, el académico lamentó el que la realidad fuera muy diferente y, actualmente, sólo kurdos y turcos viven en esta tierra mientras los armenios ya no están.

Por su parte los círculos nacionalistas no tardaron en calificar a los firmantes de la campaña como traidores y “marionetas de los poderes extranjeros”, mientras que otros intelectuales, que se solidarizan con los armenios, critican la iniciativa por otros motivos.

En declaraciones al diario Zaman, Aytekin Yildiz, de la organización de defensa de los derechos civiles “Confrontation Association” dijo que la comunidad armenia ya es consciente del apoyo de muchos turcos. “Es un buen punto de partida, pero no basta” explicó Yildiz, quién planteó qué quieren decir los intelectuales al hablar de “gran desastre”. “Pongámosle nombre, es genocidio”, aseguró, además de insistir en que es el Estado quien debe disculparse.

A esta crítica Oran argumentó que el asunto armenio ha sido un tabú intocable y que una de las cuestiones que hasta el momento bloqueó el debate fue, precisamente, el empleo del término “genocidio”.

La campaña comenzó ayer en internet y en el momento de la redacción de esta nota ya sobrepasaba las 5 mil firmas.

Fuente(s): estambul.wordpress.com
Seguir Leyendo

Distinguiendo entre ciencia y tecnología

Los teóricos posmodernos y muchos investigadores en estudios de ciencia y tecnología ya no creen que haya una distinción de principio entre ciencia y tecnología. Ciertamente los límites son mucho más vagos que en el pasado. Pero si concluimos que no podemos distinguirlos de ningún modo, ¿en qué se convierten las distinciones asociadas entre teoría y práctica, investigación y aplicación, trabajo académico y negocio, verdad y utilidad? ¿Debemos abandonarlas también?

La vieja distinción entre ciencia y tecnología y todas esas distinciones asociadas implican una jerarquía de valores. Ciencia, teoría, investigación, trabajo académico y verdad fueron consideradas más nobles que tecnología, práctica, aplicación, negocio y utilidad, de acuerdo con la antigua preferencia por la contemplación desinteresada sobre la actividad mundana.

Esta jerarquía fundamenta la demanda por la completa autonomía de la ciencia. En 1948, Bridgman expresó esta indiferencia, como desde una "torre de marfil", cuando afirmó que "el supuesto del derecho de la sociedad de imponer una responsabilidad sobre el científico cuando él no lo desea obviamente implica aceptar el derecho del estúpido de aprovecharse del inteligente" (Bridgman, 1948, p. 70).

En la medida en que la distinción entre ciencia y tecnología se vuelve difusa, la jerarquía de valores que justificaba tal excesivo esnobismo pierde su fuerza persuasiva. Un cambio básico ha ocurrido en la relación entre ciencia y sociedad. Hay una apertura por parte de la ciencia a varias formas de control político y económico y, en algunos casos, lo que yo llamaría "intervención democrática" por miembros legos del público.

¿Pero qué es lo que esto significa exactamente?

Ciertamente no significa eliminar el laboratorio, obligando al científico a trabajar con el público mirando por sobre sus hombros, ni que haya que basarse en el gobierno para las decisiones epistémicas. La democratización y la intervención política y económica en la ciencia es más modesta en sus objetivos por muchas razones. Pero la lucha por el control social de la tecnología difícilmente puede considerarse modesta.

Se intensifica de modo constante y frecuentemente conduce a la intervención directa de los ciudadanos y los gobiernos en decisiones tecnológicas, e incluso en los criterios para la toma de decisión utilizados para seleccionar tecnologías.

La vieja jerarquía de valores ciertamente ha sido embrollada en los últimos años en la medida en que una mayor cantidad de trabajo científico se dirige directamente a la producción de bienes comercializables. Vivimos en una tierra chata de dos dimensiones y no en un universo de tres dimensiones con coordenadas verticales. Pero más allá de los cambios, precisamos de las viejas distinciones.

Ellas corresponden a divisiones vitales estratégicas dentro del mundo de la política. La cuestión es ¿cómo podemos reconstruir la distinción entre ciencia y tecnología sin caer en un esquema valorativo pasado de moda? Esto es lo que voy a intentar aquí.

En lo que queda de esta presentación quisiera ofrecer un nuevo marco para discutir la relación entre ciencia, tecnología y democracia. Discutiré cuatro cuestiones en el espacio disponible. Primero, quiero introducir algunos criterios básicos para realizar la distinción que nos ocupa aquí. En segundo término, propondré un esquema histórico de la evolución de la relación cognitiva entre ciencia y sociedad.

En tercer lugar, argumentaré que la democratización tiene un significado normativo específico para la tecnología que no lo tiene para la ciencia. Y cuarto, presentaré algunas reflexiones filosóficas sobre la estructura paradójica de la emergencia de la esfera técnica pública.

Fuente(s): scielo.br/
Seguir Leyendo

La lealtad de Robert Oppenheimer

1941: Habían ya transcurrido dos años de la Segunda Guerra Mundial. “El Eje” constituido por Alemania y Japón amenazaba al mundo. La valentía, poderío militar y arrojo del ejército nazi y japonés lo hacían invencible.

Mientras, el resto de los países del globo se dividía entre los que se sentían del lado del Eje, en una actitud cómoda, los neutrales y los claramente alineados con los oponentes “Aliados”. Pero incluso entre estos últimos había división sobre el nivel de beligerancia que se debía mostrar y, sobre todo, en poderío. Era el Reino Unido quien mostraba más músculo.

Los avances revolucionarios de la Física de inicios del siglo XX, y en particular en fisión nuclear, hacían posible una nueva arma: La bomba atómica. Gran parte del conocimiento necesario estaba en Alemania. Pero muchos de los científicos más valiosos eran judíos y, empujados por la persecución nazi, escapaban en su mayoría a los Estados Unidos, que se convertiría así en el lugar de encuentro de científicos progresistas.

Como corresponde al ámbito intelectual, las opiniones sobre la evolución de la contienda y las posiciones a adoptar no eran unánimes ni plenamente coincidentes, pero todos estaban de acuerdo en que la guerra sólo se podría ganar con la nueva arma.

Los Aliados eran conscientes de que Alemania estaba también trabajando con el mismo fin, sin descanso, sin escatimar recursos, pues disponía de la Ciencia de base necesaria.

“Quien la construya primero ganará la Guerra”, decían. Y así fue.

Un colectivo de representantes de los científicos se había reunido ya por entonces con el Presidente Roosevelt de los Estados Unidos. Intentaron persuadirle de que la victoria pasaba por la nueva arma y que para conseguirla había que poner en marcha un ambiciosísimo proyecto científico-tecnológico.

El Presidente escuchó atento, interesado, incluso convencido. Pero no activó el programa.

El 4 de Diciembre de 1941 la aviación nipona atacó Pearl Harbor. Fue entonces cuando EEUU entró de lleno en la contienda y el Presidente Roosevelt puso en marcha el proyecto que los científicos reivindicaban.

En un lugar remoto del desierto de Arizona, hoy sede del prestigioso Laboratorio Nacional de Los Álamos, instalaron el campamento militar sede del Proyecto Manhattan. Objetivo: construir lo antes posible el arma atómica.

El General Leslie R. Groves, que había dirigido la construcción del Pentágono, se pone al frente de un batallón constituido por un montón de jóvenes científicos y sus familias.

De ese modo un General del Ejército Americano, con formación castrense, se encuentra con un grupo de científicos que vagamente sabían qué iban a hacer allí y para qué habían sido “reclutados” – aunque intuían que la emergencia de la guerra y su talento científico les habían llevado hasta allí – con el objeto de concebir y desarrollar algo nuevo.

Parecía materialmente imposible conseguir materializar la bomba en los cortísimos plazos de los que se estimaba disponer ante el imparable avance del Eje.

Pero ni el Presidente de los EEUU, ni el general al mando, ni los numerosos jóvenes científicos implicados en aquella quimera sabían que el objetivo era imposible. Y no saberlo les dio las fuerzas para intentarlo. ¡Y con éxito!

Había que ponerse manos a la obra. ¿Pero cómo?

El proyecto necesitaba una estructura, una planificación y coordinación científica y no era el General Groves quien podía realizar aquella labor. Nombró por tanto Director Científico del proyecto a Julius Robert Oppenheimer (1904 – 1967), físico teórico estadounidense y Profesor de Física en la Universidad de California en Berkeley, a pesar de su ideología comunista.

Oppenheimer no era tal vez el mejor científico en el Proyecto, pues en él intervinieron varios Premios Nobel (algunos lo obtuvieron mucho más tarde dada su juventud por entonces). Pero él fue claramente identificado por dos cualidades en las que destacaba holgadamente: su capacidad única para entender el proyecto en su globalidad y estructurarlo en tareas y equipos, y su asombrosa virtud de comunicar a las autoridades militares y gubernamentales, con una claridad diáfana, el estado del proyecto en cada momento y su previsible evolución.

Si bien era admirado por muchos de sus compañeros que lo percibían como un líder natural, algunos de ellos nunca le perdonarían haber sido el elegido.

Oppenheimer dirigió la empresa con éxito y no lo hizo desde su oficina sino estando presente, implicándose al máximo en el trabajo de cada uno de los equipos, como un líder inspirador que supo crear y mantener en todo momento una atmósfera única de entusiasmo.


La primera bomba nuclear fue detonada en ensayo el 16 de julio de 1945 en la Prueba Trinity, en Nuevo México. Tras contemplar la enormidad del estallido Oppenheimer recordó las palabras de Bhagavad Gita: «Ahora me he convertido en la muerte, el destructor de mundos».

Oppenheimer_21941: Habían ya transcurrido dos años de la Segunda Guerra Mundial. “El Eje” constituido por Alemania y Japón amenazaba al mundo. La valentía, poderío militar y arrojo del ejército nazi y japonés lo hacían invencible.

Mientras, el resto de los países del globo se dividía entre los que se sentían del lado del Eje, en una actitud cómoda, los neutrales y los claramente alineados con los oponentes “Aliados”. Pero incluso entre estos últimos había división sobre el nivel de beligerancia que se debía mostrar y, sobre todo, en poderío. Era el Reino Unido quien mostraba más músculo.

Los avances revolucionarios de la Física de inicios del siglo XX, y en particular en fisión nuclear, hacían posible una nueva arma: La bomba atómica. Gran parte del conocimiento necesario estaba en Alemania. Pero muchos de los científicos más valiosos eran judíos y, empujados por la persecución nazi, escapaban en su mayoría a los Estados Unidos, que se convertiría así en el lugar de encuentro de científicos progresistas.

Como corresponde al ámbito intelectual, las opiniones sobre la evolución de la contienda y las posiciones a adoptar no eran unánimes ni plenamente coincidentes, pero todos estaban de acuerdo en que la guerra sólo se podría ganar con la nueva arma.

Los Aliados eran conscientes de que Alemania estaba también trabajando con el mismo fin, sin descanso, sin escatimar recursos, pues disponía de la Ciencia de base necesaria.

“Quien la construya primero ganará la Guerra”, decían. Y así fue.

Un colectivo de representantes de los científicos se había reunido ya por entonces con el Presidente Roosevelt de los Estados Unidos. Intentaron persuadirle de que la victoria pasaba por la nueva arma y que para conseguirla había que poner en marcha un ambiciosísimo proyecto científico-tecnológico.

El Presidente escuchó atento, interesado, incluso convencido. Pero no activó el programa.

El 4 de Diciembre de 1941 la aviación nipona atacó Pearl Harbor. Fue entonces cuando EEUU entró de lleno en la contienda y el Presidente Roosevelt puso en marcha el proyecto que los científicos reivindicaban.

declaración_de_guerra_de_japón. En un lugar remoto del desierto de Arizona, hoy sede del prestigioso Laboratorio Nacional de Los Álamos, instalaron el campamento militar sede del Proyecto Manhattan. Objetivo: construir lo antes posible el arma atómica.

El General Leslie R. Groves, que había dirigido la construcción del Pentágono, se pone al frente de un batallón constituido por un montón de jóvenes científicos y sus familias.

De ese modo un General del Ejército Americano, con formación castrense, se encuentra con un grupo de científicos que vagamente sabían qué iban a hacer allí y para qué habían sido “reclutados” – aunque intuían que la emergencia de la guerra y su talento científico les habían llevado hasta allí – con el objeto de concebir y desarrollar algo nuevo.

Parecía materialmente imposible conseguir materializar la bomba en los cortísimos plazos de los que se estimaba disponer ante el imparable avance del Eje.

Pero ni el Presidente de los EEUU, ni el general al mando, ni los numerosos jóvenes científicos implicados en aquella quimera sabían que el objetivo era imposible. Y no saberlo les dio las fuerzas para intentarlo. ¡Y con éxito!

Había que ponerse manos a la obra. ¿Pero cómo?

El proyecto necesitaba una estructura, una planificación y coordinación científica y no era el General Groves quien podía realizar aquella labor. Nombró por tanto Director Científico del proyecto a Julius Robert Oppenheimer (1904 – 1967), físico teórico estadounidense y Profesor de Física en la Universidad de California en Berkeley, a pesar de su ideología comunista.

Oppenheimer no era tal vez el mejor científico en el Proyecto, pues en él intervinieron varios Premios Nobel (algunos lo obtuvieron mucho más tarde dada su juventud por entonces). Pero él fue claramente identificado por dos cualidades en las que destacaba holgadamente: su capacidad única para entender el proyecto en su globalidad y estructurarlo en tareas y equipos, y su asombrosa virtud de comunicar a las autoridades militares y gubernamentales, con una claridad diáfana, el estado del proyecto en cada momento y su previsible evolución.

Si bien era admirado por muchos de sus compañeros que lo percibían como un líder natural, algunos de ellos nunca le perdonarían haber sido el elegido.

Oppenheimer dirigió la empresa con éxito y no lo hizo desde su oficina sino estando presente, implicándose al máximo en el trabajo de cada uno de los equipos, como un líder inspirador que supo crear y mantener en todo momento una atmósfera única de entusiasmo.

La primera bomba nuclear fue detonada en ensayo el 16 de julio de 1945 en la Prueba Trinity, en Nuevo México. Tras contemplar la enormidad del estallido Oppenheimer recordó las palabras de Bhagavad Gita: «Ahora me he convertido en la muerte, el destructor de mundos».

La nueva arma estaba lista.

En Agosto de 1945 el Presidente Truman dio la orden de atacar Hiroshima y Nagasaki. Murieron más de doscientas mil personas.

Nadie que haya visto las imágenes documentales en blanco y negro de estas dos ciudades devastadas en las que los pocos sobrevivientes se arrastran malheridos, moribundos, harapientos, desesperados, entre escombros, como en “El Gernika” de Piccaso, como zombis, podrá olvidarlas.

Poco después Japón firmaba su rendición incondicional.

Tras la guerra, desde su cargo de Asesor Jefe en la recién creada Comisión de Energía Atómica de Estados Unidos, Oppenheimer abogó por el control internacional del armamento nuclear, intentando frenar la carrera armamentista entre Estados Unidos y la Unión Soviética. Eso provocó la ira de numerosos políticos, lo que le hizo caer en desgracia durante una célebre audiencia en 1954, en pleno Macarthismo, cuando todo sospechoso de simpatizar con el comunismo era perseguido.

Los compañeros del Proyecto Manhattan que nunca le perdonaron haber sido el elegido para dirigirlo fueron los que se mostraron como los más entusiastas impulsores y defensores de una infinita escalada nuclear, y a la vez sus más feroces y crueles adversarios, aportando la argumentación que el tribunal necesitaba para justificar la deshonra a la que Oppemheimer fue sometido.

Tuvieron que pasar nueve años para que los presidentes John F. Kennedy y Lyndon B. Johnson se dieran cuenta del grave e histórico error cometido y le concedieran y otorgaran respectivamente el Premio Enrico Fermi (en honor al Premio Nobel de Física 1938, uno de los más distinguidos participantes en el Proyecto Manhattan) en gesto de rehabilitación.

La película-documental “That’s the story”, producida por el Centro de Ciencias Pedro Pascual de Benasque bajo la Dirección del Catedrático de Física de Barcelona José Ignacio Latorre, que también dirige dicho Centro, narra esta historia de manera cautivadora, basándose para ello en la grabación de una entrevista realizada a Roy J. Glauber (Premio Nobel de Física 2005), último superviviente de la División Teórica del Proyecto Manhattan, que en 2005 visitó dicho centro.

Glauber fue uno de los más jóvenes participantes en el proyecto, contribuyendo no sólo a su éxito científico, sino también a ser memoria aún hoy viva de lo que fue el ambiente entusiasta que reinó en aquella singular empresa, pero también de los oscuros rencores que algunos científicos acumularon durante años, para volcarlos con violencia en la audiencia.

Oppenheimer fue injustamente acusado de falta de lealtad hacia los Estados Unidos. Pero hoy se le recuerda como un gran científico y hombre, el artífice del arma total que aseguró la victoria aliada, cuyo diabólico poder quiso después regular, convirtiéndose en pionero de la lucha contra la proliferación armamentística.

Desde sus irrenunciables ideas progresistas fue un brillantísimo, irrepetible y carismático científico, a la vez que impecablemente leal a su patria, a la Ciencia y a la humanidad en su conjunto.

Fuente(s): enzuazua.net
Seguir Leyendo

Ranking de países por reservas probadas de petróleo

Se consideran reservas probadas de petróleo a aquellas que permiten la extracción de manera rentable con la tecnología actual, teniendo en cuenta el precio del petróleo. Estas estimaciones se realizan a partir de análisis geológicos y de ingeniería, por lo que las cantidades fijadas gozan de un alto grado de confianza. Es así que, mediante la utilización de estos datos, pueden realizarse estudios y observarse cómo se producen mermas puntuales de acuerdo a coyunturas económicas determinadas y/o avances tecnológicos en países o regiones específicas.

Las estadísticas varían dependiendo de distintas fuentes, baremos y publicaciones.Las cifras suelen variar al alza o a la baja dependiendo qué organismos (la OPEP, The World Factbook de la CIA, las compañías petroleras, etc) brinden las cifras.

Esta es la lista de países según sus reservas probadas de petróleo crudo.


Fuente(s): wa.org
Seguir Leyendo

Sociología: la formación y evolución de redes

El artículo presenta un modelo para entender cómo se crean (y se mantienen) comunidades -i.e grupos que interactuán fuertemente en su interior pero menos fuertemente entre ellos. Un tema central es cómo los procesos que producen esas comunidades pueden terminar (o no) separando la población total o la mantienen todavía conectada.

Para ello establecen un modelo en que las conexiones son modificadas (rewired) a través de dos procesos: Un proceso homofílico -donde se conectan dos nodos si comparten sus estados (y se borra otra relación). Y además un proceso aleatorio -donde los cambios suceden al azar. El modelo también incluye procesos para el cambio de estados. Uno de ellos es la dispersión de estado -se elije una conexión cualquiera y se establece que ambos nodos tienen el mismo estado- o innovación -elije un nodo cualquiera y establece que ese nodo tiene un estado elegido al azar. El proceso de innovación, en realidad, corresponde al equivalente al proceso de azar, pero es importante para renovar la población.

Los resultados de las simulaciones son bastante claros: Una población donde se encuentran comunidades conectadas (i.e no un sólo gran componente o comunidades separadas), que en general pareciera corresponder al mundo social que observamos, sólo se produce en los puntos medios de las relaciones entre los procesos: Cuando hay tanto modificación por procesos homofílicos y por procesos aleatorios, y cuando el cambio de estado se produce tanto por expansión de estados como por innovación. Cuando domina un proceso entonces se forman las otras configuraciones mencionadas.

¿Cuál es la importancia de todo esto? Muy sencillo. Hace no mucho más allá de 10 años (en 1999) Duncan Watts desarrolló específicamente modelos de ‘mundos pequeños’ para dar cuenta de redes con alto grado de agrupación -donde se forman clusters de personas con alta densidad interna de conexiones- pero al mismo tiempo conectadas por lazos de larga distancia -entre grupos que de otra forma no estarían conectados, y que permiten una baja distancia promedio entre grupos. Ahora, para ‘crear’ esas redes no tenía ningún proceso a la mano, y tuvo que usar un ‘sustrato’ para producirlos. El modelo presentado en el artículo permite crear a través de procesos específicos ese tipo de redes (o más bien, unas relativamente similares, los lazos entre grupos aquí no son necesariamente lazos globales que conecten secciones que si no estarían separadas). Lo que era algo dado hace tan sólo 10 años, ahora es algo producido internamente en el análisis.

Esto también es muestra de algo más general. El análisis de redes, en general, ha pasado de una concentración en configuraciones estáticas a una preocupación por la dinámica de las redes: los procesos mediante los cuales se crean o se destruyen conexiones. Y eso claramente sólo puede implicar una mejor comprensión de estos fenómenos. O para decirlo de otra forma, son tiempos interesantes en estos temas

Fuente(s): meditacionessociologicas.cl
Seguir Leyendo

Los diez Mahavidyas

Las Mahavidyas son el grupo de diez aspectos de la Madre Divina o Kali en sí misma o Devi en el hinduismo. Los 10 Mahavidyas son las Diosas de la Sabiduría, quienes representan un amplio espectro de la divinidad femenina, desde las diosas terribles en un extremo hasta las gentiles en otra.

El desarrollo de los Mahavidyas representa un importante punto de inflexión en la historia del Shaktismo, ya que marca el surgimiento del aspecto Bhaktia en el mismo alcanzando su zenith hacia el año 1700 d.C.

El nombre de Mahavidyas proviene del sánscrito donde “maha” significa “grande” y “vidya” que significa “revelación, manifestación, conocimiento o sabiduría”.

Se cree que “la única Verdad es vista de 10 formas diferentes: la Madre Divina es adorada como 10 personalidades cósmicas”, las Mahavidyas, las cuales son identificadas generalmente como:
  • Kali. La forma última de Brahman, “Devorador del Tiempo”.
  • Tara. La Diosa como Guía y Protector, o Quien ofrece el conocimiento último que ofrece la salvación (también conocida como Neel Saraswati).
  • Lalita-Tripurasundari (Shodashi). La Diosa que es “la Belleza en los Tres Mundos”.
  • Bhuvaneshwari. La Diosa como Madre del Mundo, o cuyo Cuerpo es el Cosmos.
  • Bhairavi. La Diosa Feroz.
  • Chhinnamasta. La Diosa Decapitada por ella Misma.
  • Dhumavati. La Diosa Viuda o la Diosa de la Muerte.
  • Bagalamukhi. La Diosa que Paraliza a sus Enemigos.
  • Matangi. Primer Ministra de Lalita, la Saraswati Tántrica.
  • Kamala. La Diosa Loto, la Lakshmi tántrica.
Las diez formas de las Diosas, ya sean gentiles o terroríficas, son veneradas como las Madres Universales.

Fuente(s): viajeporindia.com
Seguir Leyendo

Singapur como excepción

¿Por qué Singapur aparece siempre entre los principales puestos de los diferentes rankings y listas de ciudades que definen la ciudad ideal para el mercado global? ¿Qué clase de excepción hace que una ciudad aparentemente descontextualizada de Occidente, de los tradicionales centros de poder, de los entornos económicos y financieros más conocidos? ¿Qué clase de excepción la descontextualizada también de los países totalitarios, fundamentalistas y/o subdesarrollados de su misma región? ¿Significa el resurgimiento de las ciudades-Estado en versión post-capitalista?

Llevaba unos meses queriendo escribir sobre Singapur, indagar un poco en esta curiosidad histórica, geográfica y económica. Posiblemente fue el viaje a Tailandia en verano, la dura vivencia del Bangkok más caótico, más vivo y más desequilibrado, lo que me hizo pensar que, sólo un poco más allá, se encontraba una ciudad modélica según muchos análisis.

Una república joven (fundada en 1919 por Thomas S. Raffles y reconocida como independiente en 1965), de apenas 5 millones de habitantes (en una amalgama de culturas, razas, idiomas y religiones debido a su carácter de zona de atracción de inmigración desde su misma creación). Una ciudad-Estado con toques de autoritarismo ilustrado que, al igual que los Estados post-coloniales africanos, fue gobernada en su inicio a la independencia por élites formadas en los grandes centros académicos europeos y norteamericanos, aunque con bastante más éxito que esos mismos países africanos, que vieron a esos mismos líderes de la independencia convertirse en sátrapas (quién sabe si aplicando sin más los consejos recibidos en las grandes universidades donde estudiaron) y, en el mejor de los casos, vieron a esos lideres asesinados o eliminados del poder por intervenciones exteriores dirigidas por las potencias occidentales que anteriormente les dieron cobijo. Así, el líder de su independencia, Lee Kuan Yew diseñó un sistema parlamentario de corte más autoritario que democrático, de forma que se mantuvo en el poder hasta 1990 y a partir de ahí creó un sistema semi sucesorio.

Una economía pujante en un territorio expansivo (vive en una permanente lucha por ganar terreno al mar bajo la premisa “todavía tenemos espacio para crecer”, como si el mar fuera su único límite), con tensiones políticas con sus países vecinos Malasia e Indonesia (precisamente, por su sed de tierras para los rellenos), y sustentada en su posición como puerto de tránsito internacional de mercancías y de capitales financieros también.

Una sociedad con mayor cohesión que las de sus países vecinos, basada en la conformación de una nueva cultura urbana altamente cualificada, multilingüe, en un marco de estabilidad legal e institucional.Quizá sea este el elemento más excepcional, lo que convierte a Singapur en un caso diferente respecto a los países vecino, y posiblemente lo que le da ventajas competitivas frente a las economías de su entorno y en la economía global.

Todo ello ha hecho de Singapur una ciudad que normalmente destaca -al menos frente a sus vecinos y, en mucho casos, ocupando posiciones muy altas- en diferentes estudios comparativos. En la encuesta Mercer sobre calidad de vida, en 2007 oupaba la posición 34, por delante de ciudades globales como Londres o de aspirantes a esa liga como Barcelona, la posición 7 en la nvestigación sobre Global Cities de Foreign Policy, y según el Observatori Barcelona, una de las principales ciudades en cuanto a producción cientifica y organización de congresos, la ciudad 38 en cuanto al índice de coste de la vida, el número 32 en calidad de vida, la ciudad número 4 como centro financiero mundial, la número 36 en el ranking de ciudades más ricas, el número 28 en el Índice de Desarrollo Humano (IDH), etc. Una ciudad-Estado con proyectos arquitectónicos de firma interacional, como no podía ser menos, y con una clara vocación científica, como representa Biopolis, una ciudad científico-universitaria dentro de la propia ciudad, como representación de su apuesta por la biomedicina como nicho de especialización local en la economía global.

Fuente(s): ciudadesaescalahumana.org
Seguir Leyendo

La Cosa nostra, Origen y estructura

La Cosa nostra es una sociedad secreta criminal (Mafia) siciliana desarrollada originalmente a mediados del siglo XIX en Sicilia.

La Cosa nostra es como se denomina la organización de la mafia en los Estados Unidos, en donde cada barrio, ciudad o hasta estado es dirgido por una "Familia" en la cual se subdividen rango de un simple torpedo o soldado (soldati) pasando por capos y consiglieri hasta llegar al más alto rango de una familia El Padrino, que tiene que ser ratificado por la comisión de la Cosa nostra. Para hacerlo más simple se dividiría en Soldado, Capo, Subjefe y el Don o Padrino.

Origen histórico. Palermo se convirtió en ciudad italiana el 7 de junio de 1860, cuando, según los términos establecidos en el alto el fuego, dos largas columnas de tropas derrotadas abandonaron discretamente Sicilia en barco regresando al sur de la península. Hasta aquel día, Sicilia había sido gobernada desde Nápoles como parte del reino borbónico que abarcaba la mayor parte del sur de Italia. En mayo de 1860, Giuseppe Garibaldi y unos mil voluntarios (los famosos Camisas Rojas) invadieron la isla con el propósito de unirla a la nueva nación de Italia.

El 6 de septiembre el héroe sería recibido en la propia Nápoles por una multitud enfervorizada, y el mes siguiente entregaría sus conquistas al rey de Italia. Pero éstas pronto empezarían a parecer insustanciales dada la violenta relación que mantendrían Sicilia y el reino de Italia. La incorporación de Sicilia a la nación trajo consigo una epidemia de conspiraciones, robos, asesinatos y ajustes de cuentas y, sobre todo, una enorme y airada resistencia popular que produciría una secuencia de continuas revueltas contra la invasión italiana en el transcurso de la década.

Fue durante los agitados años de 1860 cuando la clase dominante del Reino de Italia oyó hablar por primera vez de la Mafia de Sicilia.

Al contrario de lo que dice la creencia popular, la Mafia siciliana surgió en realidad durante mediados del siglo XIX, al mismo tiempo que la aparición del nuevo Estado Italiano. Italia no llegó a ser un estado soberano hasta este momento, y fueron la industrialización y el comercio los que trajeron este cambio y supuso la auténtica fuerza que impulsó el desarrollo de la Mafia siciliana. La Mafia siempre ha sido más fuerte al oeste de la isla, especialmente alrededor de la ciudad de Palermo, su lugar de nacimiento. Palermo era, y todavía es, el centro industrial, comercial y político de la isla de Sicilia, por lo que la Mafia situó su base aquí, en contraposición con el medio rural, que se encontraba subdesarrollado en términos económicos.

La mayor fuente de exportaciones, así como de riqueza de la isla desde la cual brotó la Mafia, eran las grandes fincas de naranjales y limoneros que se extendían desde los mismos muros de la ciudad de Palermo.

Rangos

Capi di tutti capi
El Capi di tutti Capi, es el mayor rango que puede haber en la Cosa nostra. Se trata del jefe de una familia que, al ser más poderoso o por haber liquidado a los otros jefes de las demás familias, se ha convertido en el más poderoso miembro de la mafia. Un ejemplo de ello fue Frank Costello.

Don
El Don es el jefe de una familia. En su familia es el que tiene más poder, y casi siempre va acompañado de un Consigliere.

Sottocapo
El Sottocapo al mando de una familia. Normalmente suele ser el hijo del Don u otro familiar y, en caso de que este muera o le encarcelen, el Subjefe sería el nuevo Don.

Consigliere
El Consigliere es el asesor de la familia. Siempre acompaña al Don, éste principalmente se encarga de aportar ideas en reuniones o aportarle ideas al Don.

Capo
El Caporegime o Capitán es uno de los rangos importantes de la mafia, puede llevar un grupo de soldados de máximo de diez personas a su mando y en casos especiales, el Don lo envía a asesinar a una persona.

Soldado
El Soldado es el rango más bajo que existe en una mafia y sólo los que son o descienden de italianos pueden llegar a este puesto. Se encargan principalmente de combatir a la policía en casos de guerra.

Asociado (Giovane d'onore)
Un Asociado es alguien que no forma parte de la Mafia, pero que sí mantiene una relación con ella, siendo el máximo puesto que pueden alcanzar los no-italianos. En su mayoría, son narcotraficantes, proxenetas, etc. que prestan su ayuda y colaboración a la Mafia.-

Fuente(s): es.wa.org
Seguir Leyendo

Tras 9 años, la NASA finaliza la misión del Kepler

la Administración Nacional de Aeronáutica y del Espacio (NASA) anunció que el telescopio espacial Kepler terminó su combustible y, por tanto, se ha decidido concluir su misión y retirarlo dentro de su órbita actual, lejos de Tierra. Según un comunicado de la agencia, el telescopio deja un legado, tras nueve años y medio de misión, de más de 2600 exoplanetas descubiertos.

Thomas Zurbuchen, director adjunto del Departamento de Misiones Científicas de la NASA, aseguró que el Kepler "superó todas nuestras expectativas y allanó el camino para la exploración y búsqueda de vida en el sistema solar y más allá". La propia NASA indica en el comunicado que muchos de los planetas extrasolares descubiertos "podrían ser lugares prometedores para la vida".

De acuerdo con The Verge, los ingenieros se percataron del estado del combustible en julio pasado. En ese momento, se colocó en un modo seguro y se dedicaron a recabar los datos científicos que el telescopio ha recopilado. Aunque lo lograron, ya sabía que su misión estaba cercana a terminar. Lanzado el 6 de marzo de 2009, el aparato "combinó técnicas innovadoras para medir el brillo estelar con la, en ese entonces, cámara digital más grande equipada para las observaciones del espacio exterior".

Aunque se estimaba un combustible suficiente para más de seis años, el Kepler logró subsistir más de nueve. En los días próximos, los encargados de la misión enviarán un comando para que el telescopio apague sus instrumentos, así como sus transmisores. Ahora se mantiene a unos 151 mil 300 millones de kilómetros de nuestro planeta y se espera que se aleje poco a poco. El Kepler permitió a los astrónomos descubrir la existencia de más planetas que estrellas en la Vía Láctea, así como sistemas solares de hasta ocho mundos.

Por otro lado, señala el ABC, ha mostrado la diversidad en tamaño y naturaleza de los planetas extrasolares y la abundancia de un tipo del que se desconoce mucho, un objeto más grande que la Tierra y menos que Neptuno. A medida que empeoraban las condiciones del aparato, en 2013 los investigadores usaron la presión de la luz solar para equilibrar la nave espacial y lograron desarrollar la misión extendida K2. Juntas han ayudado a los científicos a descubrir y confirmar la existencia de 2681 planetas.

Las labores del Kepler las continuará el Satélite de Sondeo de Exoplanetas en Tránsito (TESS) de la misma agencia estadounidense. Un telescopio especializado en la búsqueda de estrellas cercanas con exoplanetas de periodo corto. La NASA indicó que el "TESS se basa en los cimientos de Kepler con nuevos lotes de datos en su búsqueda de planetas que orbitan alrededor de 200 mil 000 de las estrellas más brillantes y cercanas a la Tierra, mundos que posteriormente pueden ser explorados en busca de signos de vida en misiones", como es el caso del Telescopio espacial James Webb.

Fuente(s): ws.org
Seguir Leyendo

La muerte de los mil y un cortes

Muerte por mil cortes, también llamada muerte de los mil y un cortes o muerte de los cien pedazos (en chino, Ling Chi o Leng T’ché) fue una forma de suplicio chino utilizado hasta principios del siglo XX para ejecutar penas de muerte.

La práctica consistía en descuartizar al reo, que previamente era drogado con opio y atado a un poste. Los pedazos del cuerpo eran depositados ante el reo, que era mantenido con vida hasta terminar con una decapitación o la extracción de un órgano vital.

Se aplicaba a siervos que hubieran matado a su amo, o en delitos de lesa majestad.

Se conservan testimonios gráficos de varios casos de esta práctica, en concreto, la ejecución de un sujeto llamado Fu-zhu-li, fechada en Pekín el 10 de abril de 1905, publicada en 1912 en forma de tarjetas postales. No deben ser confundidas con la serie fotográfica de la ejecución del llamado pseudo Fu-zhu-li, que se hizo famosa por su publicación en el libro de Georges Bataille titulado Las lágrimas de Eros.

La serie fotográfica, así como el método mismo de ejecución, es mencionada en la película Mártires, en el capítulo 14 de la novela Rayuela (del escritor argentino Julio Cortázar) y en la novela Farabeuf (de Salvador Elizondo).También en algunos otros libros como "El lector de Cadáveres" de Antonio Garrido, libro dedicado plenamente a la cultura china.

Fuente(s): wa.org
Seguir Leyendo

Curiosidades sobre la Torre Eiffel que quizás no conocías

Conocida en sus inicios como la tour de 300 mètres (torre de 300 metros), fue diseñada por los ingenieros Maurice Koechlin y Émile Nouguier, dotada de su aspecto final por el arquitecto Stephen Sauvestre y levantada por el ingeniero francés Alexandre Gustave Eiffel.

1. Fue construida entre 1887 y 1889 con el objetivo de celebrar la Feria Mundial que conmemoraba los 100 años de la Revolución Francesa.

2. El nombre de la torre más famosa del mundo se debe a Gustave Eiffel dueño de la empresa que estuvo a cargo del proyecto, ingeniero y especialista en estructuras metálicas.

3. Su estructura se comenzó a levantar en 1887. Trabajaron 250 obreros en su construcción, se inauguró el 31 de marzo de 1889, siendo abierta al público el 6 de mayo de ese mismo año.

4. Su altura total es de 324 metros, incluyendo la antena que tiene en la cima; sin ella, la Torre Eiffel alcanza solamente los 300 metros de altura. Pesa 10.000 toneladas y tiene 5.000.000.000 de luces. Entre los franceses es conocida como “La Dame de Fer” (La dama de hierro)

5. Durante 41 años la Torre Eiffel fue la estructura más alta del mundo, hasta que construyeron en 1930 el edificio Chrysler en New York, momento en el que la robaron el titulo.

6. En agosto de 1944, poco antes de la liberación de París, Hitler ordenó derribarla a su gobernador militar Dietrich von Choltitz (alemán con antepasados franceses), pero él se negó.

7. Aunque no se perciba, la torre se cimbrea con el viento hacia izquierda y derecha, adelante y atrás, aproximadamente unos 15 centímetros, aunque nadie se da cuenta de ello. De lo contrario, se creería que la torre no es tan segura como parece.

8. La torre aumenta 15,24 centímetros cuando esta se calienta por los rayos del sol. Algo bastante difícil de comprobar a simple vista.

9. El costo total de su construcción fue de 6,5 millones de francos más 1,5 millones por gastos no previstos. Su cimentación tienen una profundidad de 30 metros y tiene más de 2 millones de remaches de seguridad.

10. Es considerada como uno de los monumentos más visitados del mundo, según nos dicen en su página oficial. Alrededor de siete millones de personas visitan este monumento de París cada año y cerca de 250 millones lo han hecho ya desde su inauguración.

11. Existen más de 20 réplicas de la Torre Eiffel en todo el mundo. Como por ejemplo en algunos lugares de España, China, Rusia, Atenas, México y Guatemala entre otros.

Fuente(s): tispain.com

Seguir Leyendo

La tercera Ley de Kepler

El 8 de marzo de 1618 el astrónomo y matemático alemán Johannes Kepler (Weil der Stadt, Alemania, 27 de diciembre de 1571 – Ratisbona, Alemania, 15 de noviembre de1630), formula su tercera Ley del movimiento de los planetas en sus órbitas alrededor del Sol.“El cuadrado de los períodos de la órbita de los planetas es proporcional al cubo de la distancia promedio al Sol”.

epler permitió descubrir el movimiento de los planetas. Utilizó grandes conocimientos matemáticos para encontrar relaciones entre los datos de las observaciones astronómicas obtenidas por Tycho Brahe y con ellos logró componer un modelo heliocéntrico del universo. Comenzó trabajando al modo tradicional, planteando trayectorias excéntricas y movimientos en epiciclos, pero encontró que esos datos los situaban fuera del esquema que había establecido Copérnico, lo que le llevó a pensar que no describían una órbita circular. Ensayó otras formas para las órbitas y encontró que los planetas describían órbitas elípticas que tenían al Sol en uno de sus focos.

Analizando los datos de Brahe, Kepler descubrió también que la velocidad de los planetas no es constante, sino que el radio vector que los une con el Sol describe áreas iguales en tiempos iguales. En consecuencia, la velocidad de los planetas es mayor cuando están próximos al Sol (perihelio) que cuando se mueven por las zonas más alejadas (afelio).

El estudio de Newton de las leyes de Kepler condujo a su formulación de la ley de la gravitación universal.

Kepler dedicó buena parte de su viada a intentar comprender las leyes del movimiento planetario.

En un principio Kepler consideró que el movimiento de los planetas debía cumplir las leyes pitagóricas de la armonía. Esta teoría es conocida como la música o la armonía de las esferas celestes.Siendo un firme partidario del modelo copernicano, intentó demostrar que las distancias de los planetas al Sol venían dadas por esferas en el interior de poliedros perfectos, anidadas sucesivamente unas en el interior de otras.

“El hecho de que todo el mundo este circunscrito por una esfera ya ha sido discutido exhaustivamente por Aristóteles (en su libro sobre los Cielos), que fundaba su prueba especialmente en la significación especial de la superficie esférica. Por esta razón, aun hoy la esfera más exterior de las estrellas fijas ha mantenido su forma aun cuando no se le puede atribuir ningún movimiento. Ella tiene al Sol como su centro en su seno más interior. El hecho de que las restantes órbitas sean redondas puede ser visto por el movimiento circular de las estrellas. Así, pues, no necesitamos otra prueba de que la curva fue empleada para adornar el mundo.”

Kepler propuso que la relación entre las distancias de los seis planetas conocidos en su tiempo podía entenderse en términos de los cinco sólidos platónicos, encerrados dentro de una esfera que representaba la órbita de Saturno. Excepto por Mercurio, el sistema de Kepler funcionaba de manera muy aproximada a las observaciones.

Como resulta evidente, se había equivocado.

Atraído por la fama de Tycho Brahe, Johannes Kepler aceptó una invitación que le hizo en el año 1600 para trabajar junto a él en Praga. Al morir Tycho, en el año 1601, fue nombrado su sucesor en el cargo de matemático imperial y astrónomo de la corte del emperador Rodolfo II , puesto que ocupó hasta 1612.

Tycho pensaba que el progreso en astronomía no podía conseguirse por la observación ocasional e investigaciones puntuales sino que se necesitaban medidas sistemáticas, noche tras noche, utilizando los instrumentos más precisos posibles.

Durante su estancia con Tycho le fue imposible acceder a los datos de los movimientos aparentes de los planetas ya que Tycho, celoso de su trabajo, se negaba a dar esa información. Ya en el lecho de muerte de Tycho y después a través de su familia, en 1602 Kepler accedió a los datos de las órbitas de los planetas que durante años se habían ido recolectando.

Gracias a esos datos, los más precisos y abundantes de la época, Kepler pudo ir deduciendo las órbitas reales planetarias. Encontró que en su movimiento alrededor del Sol los planetas no siguen exactamente órbitas circulares sino que describen otra clase de curvas tan famosas como el círculo en la geometría euclidiana.

Inicialmente, Kepler intentó que la órbita de los planetas se adecuase a la circunferencia por ser la más perfecta de las trayectorias, pero los datos observados impedían un ajuste correcto, lo que entristeció a Kepler, ya que no podía saltarse un pertinaz error de ocho minutos de arco. Kepler comprendió que debía abandonar la circunferencia, con gran tristeza para él, lo que implicaba abandonar la idea de un “mundo perfecto”.

Analizando los datos de Tycho Brahe relativos a las posiciones de los planetas entre las estrellas, Kepler llegó a la conclusión de que todas las cosas se ajustarían mejor si se supusiera que todos los planetas recorren órbitas elípticas teniendo al Sol situado en uno de sus focos. Descubrió también que en su movimiento alrededor del Sol los planetas se mueven más rápidamente cuando están cerca del Sol (en el afelio) y más lentamente cuando están más lejos (perihelio).

En 1609, publica Astronomia nova (Nueva astronomía), la obra que contenía las dos primeras leyes llamadas de Kepler, relativas a la elipticidad de las órbitas y a la igualdad de las áreas barridas, en tiempos iguales, por los radios vectores que unen los planetas con el Sol.

De esta forma, la primera Ley de Kepler dice:

“Los planetas tienen movimientos elípticos alrededor del Sol, estando éste situado en uno de los 2 focos que contiene la elipse”.

Y en su segunda ley expone:

“Las áreas barridas por los radios de los planetas son proporcionales al tiempo empleado por estos en recorrer el perímetro de dichas áreas.”

El 8 de marzo de 1618 Johannes Kepler, formula su tercera Ley del movimiento de los planetas en sus órbitas alrededor del Sol. La tercera ley, que indica que el cubo de la distancia promedio del planeta al Sol es proporcional al cuadrado de su periodo orbital aparecía por primera vez en el capítulo 5 de este libro tras una larga discusión sobre astrología.

“El cuadrado de los períodos de la órbita de los planetas es proporcional al cubo de la distancia promedio al Sol”.

Finalmente el 15 de mayo de 1618, confirma su descubrimiento previo sobre la tercera ley de movimientos de los planetas. Aparecerá recogida en su libro “Harmonices mundi” (La armonía de los mundos) publicado en el año 1619 en la ciudad de Linz.

La tercera Ley de Kepler, dice lo siguiente:

“Tercera ley (1618): para cualquier planeta, el cuadrado de su período orbital es directamente proporcional al cubo de la longitud del semieje mayor de su órbita elíptica.”

Te2/ Re3 = Constante.

Donde, T es el periodo orbital (tiempo que tarda en dar una vuelta alrededor del Sol), R la distancia media del planeta con el Sol y C la constante de proporcionalidad.

Estas leyes se aplican a otros cuerpos astronómicos que se encuentran en mutua influencia gravitatoria, como el sistema formado por la Tierra y la Luna.

Tras “Harmonices mundi” la siguiente obre de Kepler fue “Epitome astronomiae copernicanae”(1618-1621), que reúne todos sus descubrimientos en un solo tomo.

Johannes Kepler tuvo también su importancia en la fundación de la nueva ciencia dedicada al estudio de la Luna denominada Selenografía, pues sus principios sobre el telescopio astronómico sirvieron a Galileo a elaborar sus trabajos, además de realizar él mismo una carta lunar tan tosca como las de sus compañeros gracias a un nuevo diseño de montura ecuatorial para su telescopio que le proporcionó un jesuita llamado Scheiner, quien además dibujó un mapa lunar en el año 1645.

Kepler murió en 1630 en Ratisbona, en Baviera, Alemania, a la edad de 58 años. En 1935 la UAI decidió en su honor llamarle «Kepler» a un astroblema lunar.

Fuente(s): ahombrosdegigantescienciaytecnologia.wordpress.com
Seguir Leyendo

Traktor, primeros pasos de la música electronica

Probablemente el software para DJ más usado de la historia, Traktor fue lanzado al mercado por Native Instruments en el año 2001. Durante estos 15 años de vida, se ha convertido en una aplicación utilizada tanto por DJs profesionales como quienes empiezan a situarse detrás de los platos.

Gracias a sus múltiples innovaciones a lo largo de este tiempo, así como a su solidez y versatilidad, es el software favorito de muchos deejays, independientemente del estilo musical que exploten o de su forma de pinchar.

Para comprender la importancia de su lanzamiento, hay que analizar la escena de entonces: Traktor nació en un momento en el que las ventas de CDs se estaban empezando a estancar y, a su vez, el mundo digital revolucionaba con fuerza distintos campos, entre ellos el de la música y todo lo que estaba relacionado con ella.

Al momento de su lanzamiento, 2001, Traktor fue el software que realmente convenció a muchos DJs para abrazar el mundo digital…

Primero fue el mítico y ya desaparecido reproductor Winamp, que supuso para muchos la plataforma perfecta para comenzar a pinchar con un ordenador. Luego llegaron otras aplicaciones, como PCDJ SL1200, Deejaysystem, BPM o Atomix MP3. PeroTraktor fue el software que realmente convenció a muchos DJs para abrazar el mundo digital.

El impacto del “niño mimado” de Native Instruments fue tal, que muchas aplicaciones que aún siguen desarrollándose -como Serato, Virtual DJ, Deckadance o Cross DJ– se “inspiraron” o incluso copiaron directamente algunas características que introdujoTraktor en su momento, como la visualización de las formas de onda, por ejemplo.

Habiendo dejado atrás un quinquenio de innovación imparable, es un buen momento para recordar las múltiples versiones de Traktor que fueron surgiendo por el camino, al tiempo que repasamos algunas de sus características más importantes…

La primera versión de Traktor se aprovechó de la creciente popularidad del formato MP3 e introdujo como gran novedad su vista de las formas de onda, una funcionalidad que hasta ese momento, ninguna otra aplicación de la competencia ofrecía.

Muchos usuarios demandan una actualización importante de Traktor, si bien Native Instruments no ha estado quieta precisamente, hace poco presentó el nuevo formato de archivo Stems. Los fans de la marca echan en falta algunas mejores importantes, y que la competencia en mayor o medida ya ha incorporado a sus aplicaciones.

Lo que está claro es que a Traktor aún le queda mucho recorrido, su presencia no ha hecho otra cosa sino aumentar en estos 15 años en las cabinas de todo el mundo. Y con el tiempo, ha pasado de ser una software utilizado por casi en exclusiva los DJs de clubs, a ser una herramienta imprescindible para DJs móviles, turntablism y en definitiva cualquier tipo de DJ y género musical.

En cualquiera de los casos, la Historia de Traktor es sin duda la de la creación de un mito dentro de la tecnología aplicada al DJ.

Fuente(s):  tusdj.com
Seguir Leyendo

El problema del caballo, un antiguo enigma matemático

El llamado ¿Problema del caballo? es un antiguo problema matemático relacionado con el ajedrez. Consiste en encontrar una secuencia de movimientos -válidos- de esta pieza para que recorra todas las casillas del tablero, visitando cada una solo una vez. Verdaderos ejércitos de matemáticos han encarado este problema, pero sigue sin conocerse el numero exacto de soluciones que existe. El problema ha sido planteado para tableros de diferentes tamaños y distintas condiciones iniciales, y sigue siendo tan atractivo como hace 1.200 años.

A lo largo de los siglos, los matemáticos han utilizado el tablero y piezas del juego de ajedrez para plantear miles de acertijos, muchos de los cuales presentan semejante nivel de complejidad, que no han logrado ser resueltos ni siquiera abordándolos con los superordenadores más potentes. El denominado ?problema del caballo? es uno de los desafíos que involucran elementos del ajedrez más simples de enunciar pero más difícil de resolver. El reto consiste en poner un caballo en una de las casillas de un tablero de ajedrez vacío, y -respetando los movimientos válidos para esta pieza- recorrer cada uno de los casilleros sin pasar dos veces por el mismo, volviendo (o no) a la posición de partida. Si bien existen varios recorridos probados que satisfacen las condiciones enunciadas, lo cierto es que a pesar del esfuerzo de muchos matemáticos no se conoce con exactitud la cantidad de soluciones posibles para el problema del caballo.

Una de las primeras soluciones conocidas data del siglo IX. En efecto, en un manuscrito del árabe Abu Zakariya Yahya ben Ibrahim al-Hakim se encuentran documentados dos recorridos válidos. Uno de ellos pertenece a un jugador de ajedrez llamado Ali C. Mani y el otro a Al-Adli ar-Rumi, un aficionado del que se sabe también escribió un libro sobre una forma de ajedrez popular por esa época llamado ?Shatranj?.

A lo largo de los siglos, el problema del caballo fue modificándose, dando lugar a distintas variantes. Por ejemplo, pueden utilizarse tableros de dimensiones diferentes a las 8x8 casillas tradicionales, o permitirse que la casilla de llegada no coincida con la de salida.

Esta última variante facilita un tanto las cosas, y aumenta aun más la cantidad de soluciones posibles. Cuando el caballo debe llegar a la misma casilla de la que salió, se dice que el recorrido que efectúa es ?cerrado?. As-Suli, otro árabe mestro de Shatranj, que basó su análisis en los trabajos anteriores de Al-Adli, encontró allá por el año 900 de nuestra era dos recorridos recorridos cerrados.

20 ordenadores pensando. El primer estudio matemático importante sobre este problema se cree es el que efectuó el genial el matemático Leonhard Euler (1707?1783), quien presentó su trabajo a la Academia de las Ciencias de Berlín en 1759. En realidad Euler, una figura reconocida que publicó más de mil trabajos y libros brillantes durante su vida, sabía que la Academia ofrecía un premio de 4.000 francos a aquel que pudiese arrojar algo de luz al problema del caballo. Si bien se conocían muchas soluciones, nadie había logrado estimar el numero de ellas que existían ni un algoritmo que permitiese generarlas sin dificultad.
Los que habían abordado el problema sabían que encontrar una solución simplemente moviendo el caballo ?al tanteo? era prácticamente imposible, pero tampoco eran capaces de encontrar un método que facilitase el proceso. Así las cosas, Euler encaró el problema y encontró que existían varios recorridos cerrados que ofrecían la ventaja de permitir comenzar por una casilla cualquiera del tablero y completar el recorrido a partir de ella.Lamentablemente, en el momento en que publicó su trabajo, Euler era Director de Matemáticas de la Academia de Berlín, por lo que por una cuestión ética no pudo cobrar el premio.

Hoy sabemos que el numero de recorridos posible es realmente muy grande. A pesar de haberse utilizado los más grandes ordenadores disponibles para buscar todas las formas en que el caballo puede recorrer el tablero, no estamos seguros de que los valores hallados sean correctos. Hace 15 años, en 1995, Martin Löbbing e Ingo Wegener pusieron a trabajar 20 ordenadores Sun -potentes para la época- durante cuatro meses y publicaron un documento en el que proclamaban que el número de recorridos posibles en un tablero de 8x8 era 33.439.123.484.294.

Dos años más tarde, en 1997, Brendan McKay encaró el problema del caballo dividiendo el tablero en dos mitades y llego a un resultado algo menor:¿sólo? existirían 13.267.364.410.532 recorridos posibles. Para tener una idea de lo que significan estos números, basta saber que si un robot fuese capaz de mover el caballo para que complete un recorrido por segundo, demoraría más de 420 años en probarlos a todos.

¿Que utilidad tiene para un jugador de ajedrez conocer estos recorridos? Muy poca. Pero esta clase de desafíos han impulsado a muchos aficionados o matemáticos a encarar problemas que finalmente suelen tener alguna aplicación práctica a la hora de encontrar rutas óptimas que pasen por un determinado número de lugares o que permitan -por ejemplo- ahorrar tiempo o combustible. Como sea, el Problema del caballo ha logrado mantener interesados a los matemáticos durante siglos, y todo parece indicar que lo seguirá haciendo durante mucho tiempo.

Fuente(s): jardinesmatematicos.blogspot.com
Seguir Leyendo

La otra forma de buscar vida extraterrestre

En la carrera de tres caballos para probar que la biología no es solo una rareza terrestre, hay un caballo de batalla que mucha gente ignora: el análisis del aire de planetas lejanos para ver si contienen los gases de la vida, o biofirmas en la jerga de los astrobiólogos.

Todos –o al menos la mayoría– conoce a los otros dos caballos:

Encontrar biología en el Sistema Solar enviando misiones a Marte o alguna de las lunas de Júpiter.
Expandir los experimentos de SETI para intentar “escuchar” las señales de radio o “ver” los pulsos láseres producidos por seres inteligentes que habitan mundos lejanos.
El primer caballo tiene la ventaja de que, si los microbios han surgido en algún lugar del Sistema Solar, podemos ser capaces de traerlos de vuelta a nuestro planeta, vivos o muertos. Tendríamos extraterrestres en la Tierra, una idea que emociona a los astrobiólogos.

El segundo –SETI– intenta descubrir la variedad más interesante de vida extraterrestre, es decir, aquella que es tecnológicamente avanzada. Pero una dificultad para las búsquedas SETI es que se necesita estar apuntando los telescopios en dirección de las señales mientras llegan directamente en dirección de nuestro planeta, ni antes ni después. Y allí tenemos un problema de sincronía.

Pero el tercer caballo es un competidor que no se ve obstaculizado por el inconveniente de la sincronía. Debemos considerar que la atmósfera de la Tierra tiene aproximadamente un 21% de oxígeno, una consecuencia de miles de millones de años de actividad fotosintética. El oxígeno es un gas liberado por la vida vegetal.

Lo bueno de esto es que la firma del oxígeno en el aire de la Tierra ha estado presente por unos 2.000 millones de años. Durante todo ese tiempo el oxígeno ha estado mostrando su existencia al espacio. Podría ser fácilmente detectado por cualquier civilización extraterrestre avanzada con buenos presupuestos para investigación astronómica, incluso desde grandes distancias. No existe el problema de sincronía, dado que la señal dura muchísimos años.

Esa es una buena razón para apostar por el caballo número 3, y Daniel Angerhausen, investigador del Centro de Vuelo Espacial Goddard de la NASA, ha apostado por él. Angerhausen usó telescopios terrestres y espaciales para buscar las firmas espectrales no solo del oxígeno, sino también de otros “delatores” como el metano.

La manera obvia de hacerlo sería solo apuntar un telescopio hacia un exoplaneta y analizar la luz reflejada por dicho mundo. Este enfoque es demasiado obvio, pero extremadamente difícil debido a que muy pocos de estos planetas pueden ser observados directamente por los instrumentos existentes hoy.

La idea de Angerhausen es observar exoplanetas que pasan regularmente frente a sus estrellas. Cuando lo hacen, causan una ligera disminución de la luz estelar que percibimos. Esta es la técnica usada por el Telescopio Espacial Kepler para descubrir miles de planetas aún invisibles. Kepler detecta mini-eclipses que tienen lugar a cientos de años-luz de distancia.

El truco de Angerhausen es sustraer el espectro de una estrella cuando un planeta no está pasando por el frente o detrás de ella, del espectro tomado cuando sí se da esa situación. ¿Por qué? La mayor parte del tiempo lo que ve un telescopio es una combinación del brillo estelar y la luz reflejada por el planeta. Pero cuando el planeta se encuentra por delante o detrás de la estrella, solo se observa el brillo estelar. Al tomar la diferencia, se elimina la contribución de la estrella y queda el espectro de la atmósfera del planeta.

Es más fácil describirlo que hacerlo. Las estrellas son brillantes y los planetas tenues, así que las mediciones son muy difíciles. Usar un telescopio espacial evita los problemas creados por la agitada atmósfera de la Tierra. Pero los telescopios orbitales son generalmente pequeños y no existe posibilidad de cambiar sus instrumentos.

Debido a esto, Angerhausen intentó otra posibilidad; SOFIA, un telescopio con un espejo de 2,7 metros que viaja a bordo de un Boeing 747. Volando de noche a una gran altitud, este instrumento opera sobre el 90% de la incómoda atmósfera terrestre. Y cuando aterriza es posible cambiar la instrumentación o hacer otras mejoras.

Aun así, no hay indicios de biología extraterrestre.

No obstante, los telescopios más grandes no están en el espacio ni en la estratósfera, sino en las cimas de montañas. Angerhausen ha usado grandes telescopios terrestres y todavía no ha encontrado gases producidos por procesos biológicos en el aire de planetas lejanos, pero tiene una razón para seguir siendo optimista. Él confía en la incansable mejora de la tecnología de telescopios; una tendencia que puede ser proyectada décadas en el futuro con seguridad.

Así que, ¿qué significaría si se encuentra, por ejemplo, oxígeno junto a metano en la atmósfera de otro mundo? Claro, habría que comprobarlo cuidadosamente para asegurarse de que los gases fueran verdaderamente biogénicos. E incluso entonces, solo se puede decir que hay clorofila o su homólogo extraterrestre en ese planeta: en otras palabras, los extraterrestres podrían no ser más que “ingredientes de ensalada”.

Pero si otros mundos pueden hacer surgir lechugas o quizá solo algas, hay al menos alguna posibilidad de que pudieran convertirse en algo un poco más interesante. El caballo número tres puede ser el candidato menos conocido, pero también puede dar la sorpresa.
Seguir Leyendo

Lee de Forest, el padre de la electrónica

Lee de Forest, el padre de la electrónica
El 26 de agosto de 1873, nacía el ingeniero estadounidense Lee de Forest (Iowa, 26 de agosto de 1873 – Hollywood, 30 de junio de 1961). En 1893 obtuvo una beca en la Escuela Científica Sheffield, de la Universidad de Yale, En 1899 consiguió continuar el doctorado en física, debido a su interés por la electricidad, específicamente el estudio de la propagación de las ondas electromagnéticas iniciado años antes por el físico alemán Heinrich Rudolf Hertz y continuado por el también físico italiano Guglielmo Marconi.

La tesis doctoral de Lee de Forest “Reflexión de las ondas hertzianas a partir de las puntas de dos alambres paralelos” es una de las primeras tesis doctorales sobre las ondas radioeléctricas. Entre sus muchos inventos, recibió las patentes de un bisturí, el circuito oscilador de alta frecuencia, el radioteléfono, los sistemas de trasmisión y recepción de radio, los sistemas de comunicación de los trenes, un altavoz, la celda fotoeléctrica, la cámara de cine a prueba de ruidos y un aparato de televisión y de televisión a colores. En 1923 demostró en el Teatro Rivoli, de Nueva York, su proceso Phonofilm para las películas sonoras.

Hacia 1905 De Forest comenzó sus primeras investigaciones sobre válvulas electrónicas con el objetivo de mejorar el sistema de detección en sus receptores de radiotelegrafía.

Sus primeros desarrollos fueron los de un simple diodo (2 electrodos) y después introdujo un tercer electrodo, solicitando en 1906 una patente sobre este dispositivo, que le fue concedida con el número US841387.

A este tubo le dio el nombre de “Audion” y al año siguiente introdujo una mejora, la rejilla (grid), convirtiendo al triodo en la base a partir de la cual se desarrollarían todos los tubos termoiónicos de más de dos electrodos. Este dispositivo iba descrito en una patente, sobre un circuito receptor de radiotelegrafía, que obtuvo en 1907 con el número US879532.

Se denomina triodo a la válvula termoiónica de tres electrodos, ánodo, cátodo y rejilla de control.

Consta de tres elementos. El primero es el cátodo, que al calentarse produce electrones. El segundo es el ánodo o placa, que está cargado positivamente y, por tanto, atrae a los electrones. El tercero es la rejilla que se sitúa entre el cátodo y el ánodo.

La tensión aplicada a la rejilla hace que el flujo de electrones desde el cátodo al ánodo sea mayor o menor. Esto es muy interesante pues aplicando una señal de muy débil intensidad entre cátodo y rejilla podemos conseguir que la variación del flujo de electrones entre éste y el ánodo sea muy grande. Es decir, con una pequeña tensión controlamos una gran corriente. A ese fenómeno se le llama amplificación. Por eso, el triodo es un amplificador.

También puede utilizarse para más funciones tales como rectificador o como puertas que dejan pasar la corriente o no (on-off) y que son la base de la electrónica digital, pero su función más importante es la de amplificar.

Al elemento que emite electrones se le llama cátodo, pero al hacerlo adquiere una polaridad positiva. En las válvulas más sencillas esta función la cumple el mismo filamento, que es el elemento calefactor.

El tercer elemento, la rejilla, fue introducido en 1906 por Lee de Forest.

El triodo permitió la construcción de amplificadores tanto de audiofrecuencia como de radiofrecuencia, a la vez que osciladores y complejos circuitos eléctricos utilizados en los receptores de radio hasta el descubrimiento de los transistores. Por todo ello se le suele llamar el padre de la radio. De Forest creó además la primera emisora: empleando sus recién descubiertos triodos, instaló una emisora de radio en la Torre Eiffel parisina que se inauguró en 1915.

Antes del Triodo, sólo se podía convertir la corriente alterna en corriente continua, o sea, solo se construían las fuentes de alimentación, pero con la creación del Triodo de Vacío, se consigiuió la amplificación de todo tipo de señales, sobre todo la de audio, la radio, la TV , etc. esto hizo que la industria de estos equipos tuvieran un repunte tan grande que ya para las décadas superiores al 1930 se acuñara la palabra por primera vez de “Electrónica” para referirse a la tecnología de estos equipos emergentes.

De Forest fue además uno de los pioneros en la investigación de las ondas radioeléctricas procedentes del espacio exterior y desarrolló un aparato de diatermia para uso clínico. Figura asimismo entre los primeros que exploraron el camino hacia la invención de la televisión.

Fuente(s): ahombrosdegigantescienciaytecnologia.wordpress.com
Seguir Leyendo

Efectos colaterales negativos de la pena capital

Efectos colaterales negativos de la pena capital
Lo que pasamos a exponer a continuación, corresponde en forma integra a la legislación inglesa.

Cuando se aplica la pena de muerte a ciertos delitos, en la cual la opinión pública se encuentra en desacuerdo y no puede ser por tanto impedido y o impedirlo, se tratará entonces de multiplicarlo con la ilusión de la impunidad. Con ello, la pena más potente, actúa o influye menos que una inferior. Pero al parecer esta proposición es paradójica. Sin embargo, se desvanece la paradoja, al momento que se observan los distintos efectos producidos por su desprestigio e impopularidad a la malmirada pena de muerte. Lo primero que se siente, es el aflojar, es decir, soltar las formas judiciales en materia criminal. Lo segundo, tiene que ver con el fomento o provocación de tres máximas viciosas, a saber, el merito del juicio, cuando se motiva en la humanidad; el menosprecio a la norma legal, cuando la opinión pública ve que no se ejecutan y, la arbitrariedad en juicios y absolución de un sistema que no es del agrado societal, el cual se encuentra lleno de abusos y peligros.

Lo anterior, es debido en parte a la carencia y débil esquematización y compendiación penal resultado de una serie de trasgresiones, hechas por distintos funcionarios públicos, los cuales, sin embargo, son fundamentales para la ejecución de las leyes. En ese momento, se trataba de procurar una reforma contundente para la eliminación de la pena de muerte a ciertos delitos menores. En este punto participan varios personajes conocidos de la época, estos se involucrarán en cuestiones de Derecho Penal, tal como de Sir Samuel Romilly quién propicia a partir de ciertos "bills", la supresión de la pena capital contra la ratería. Es así que la propuesta de Sir Romilly se expresa en las siguientes palabras de Bentham: "otros cinco bills de la misma especie acaban de aprobarse en la cámara de los comunes con una pluralidad en aumento siempre. Todavía es dudoso el éxito final suyo. El espíritu de la Reforma no es en Inglaterra una moda que se lo lleva todo tras sí; pero esta lentitud del curso de la razón es uno de los distintivos de la libertad. En un país libre, todas las opiniones tienen una fuerza que les permite luchar, y no se rinden más que á la convicción"

Al respecto Bentham comenta que mucho tiempo había pasado, sumando además a un intenso trabajo y fatiga, lograr alcanzar la eliminación del comercio de los negros.

Se suma a lo anterior, que en intensos debates de las Cámaras de los Lores y en especial, el choque de los discursos de lores, marqueses y otros, los resultados fueron la puesta en vigencia de la tratada Ley Criminal, llevada a cabo por algunos tratadistas, tenga como resultado la pronta figuración en la normativa legal británica. Los resultados de los anteriores debates no se dejaron esperar. Muchos dueños de fábricas de algodón y de telas, que se encontraban expuestos a grandes robos, se reunieron para solicitar la suspensión de la pena de muerte contra este tipo particular de robo, señalando que: "la razón suya es, que la severidad de la ley los protege menos que á los malhechores mismos. No se trata ya de declamar contra los habladores, filósofos ni teóricos. He aquí unos hombres perjudicados, que conocen la pérdida suya, que no consultan más que con su interés, y que solicitan unas leyes ejecutables y ejecutadas"

Por otro lado, como ha quedado de manifiesto, Bentham ha expuesto elementos de la paradoja, pero que a continuación pasarán, muy a propósito, a exponerlas claramente, con el objeto que, luego de conocerla, no es nada más fácil que refutarla. La refutación se planteará en base a la colocación de dos columnas donde se exponen proposiciones contradictorias. Esto es lo que en seguida pasamos a mostrar, tal como ha sido elaborada y desarrollada por el autor.

Opinión Paradójica

Refutación

Todo ha de ser claro en la ley, todas las leyes deben ejecutarse

Todo no ha de ser claro en la ley, y todas las leyes no deben ejecutarse.

Todo el bien que la ley obra, no lo obra mas que en cuanto es conocida y ejecutada.

Todo el bien que la ley obra, lo obra sin ser conocida ni ejecutada.

Es necesario que sea la misma para todos, que reine sola, y que el juez no sea más que el dispensador y órgano ella.

No es necesario que sea la misma para todos, ni que reine sola. El juez no debe estar ceñido á ser dispensador y órgano de ella.

Si la ley establece una pena, y que los Tribunales imponen otras habitualmente.

La ley es evidentemente buena, si ella establece una pena, y los tribunales otras habitualmente.

Si es odiosa hasta el grado de que el perjurio que la eluda pueda tenerse por un acto meritorio.

Si aún es odiosa hasta el grado de que el perjurio que la eluda se tenga por un acto meritorio.

Si es tan desproporcionada con los delitos, que ella tenga necesidad de un paliativo habitual en la arbitrariedad de los juicios y perdones. La ley es evidentemente viciosa: y cuantos más motivos de justificación se hallan en favor de los que impiden la ejecución de ella, tanto más se condena la ley misma.

Si es tan desproporcionada con los delitos, que ella tenga necesidad de un paliativo habitual en la arbitrariedad de los juicios y perdones. Todo esto no impide que la ley sea buena; y pueden aprobarse los que se oponen á la ejecución de ella, sin insinuar la menor duda sobre la excelencia de la ley misma.

Este párrafo que nos ha presentado Bentham, es notablemente aclaratorio, porque nos devela los resultados de las paradojas y sus distintas refutaciones que nos permiten, a fin de cuenta contar con una opinión al respecto.

Fuente(s): cielo.conicyt.cl
Seguir Leyendo

Haskalá, la Ilustración judía

Haskalá es una palabra en hebreo que significa Ilustración. En este artículo pretendemos explicar el origen repentino de la misma en el siglo XVIII. Examinaremos así mismo su alcance, ¿todo el pueblo judío recibió su influencia por igual? Si todo movimiento tiene unos objetivos, ¿éste los cumplió todos, o quedaron flecos por resolver? ¿Qué le debemos a la Haskalá como sociedad, es decir, que logros tuvieron en distintas materias del saber? Todo esto será analizado desde distintos puntos de vista.

¿Qué es la Haskalá? Orígenes. Igual que antes de la luz viene la oscuridad, antes de la Ilustración tenemos que hablar de una época difícil para el pueblo judío. Nos referimos a ello con una palabra con merecida mala prensa: el gueto. Los orígenes de esta institución no están nada claros. Si atendemos a la historiografía clásica pensaremos en el 26 de marzo de 1516, cuando el gobierno de la Serenísima República de Venecia decretó que reducirían su espacio a una isla de Cannareggio. Unas fundiciones de metal de tiempo de los romanos, llamadas getti en dialecto veneciano, dieron su nombre a esta unidad social. El motivo argüido por el Senado veneciano fue la superpoblación hebrea debido a la oleada de refugiados por las expulsiones judías de los reinos ibéricos (Treserras, 2007, pp. 27-29) .

Claro que hay diferentes opiniones al respecto. El historiador de las religiones Michael McClain explica que el gueto tiene su origen en el Talmud. Es decir, la tendencia de los judíos a agruparse está acentuada por los restaurantes y carnicerías kosher, que es la forma de preparar la carne de acuerdo a la ley talmúdica. Y dicha ley se enseña y estudia en las academias denominadas yesiba, y finalmente se reza en la sinagoga. Es decir, tenemos tres elementos indispensables en la vida del judío, y los hebreos ilustrados, los maskilim, en actitud crítica a su religión sostenían que el gueto es una invención semita. Si bien hay que puntualizar que aunque es cierto que tanto los límites físicos (puertas de hierro) como legales son del siglo XVI (McClain, 1972, pp. 51-53).

De cualquier forma los siglos XVI-XVII es una época dura y oscura para los hebreos en líneas generales, quizá con la excepción de los sefardíes en las Provincias Unidas o el Imperio Otomano. Isaac Abrahams dice que fue “aquella edad negra en la edad judía, época del gueto, ignorancia y la degradación” (Abrahams, 1911, pp. 78-99). Como no podía extenderse, el barrio quedarían condenados al hacinamiento, la suciedad, y edificios altos de callejuelas estrechas.

Esto fomenta la delincuencia, las enfermedades y además eran presa fácil de incendios. A todo esto se les sumaron los ataques típicos de índole religiosa, y de comerciantes competidores, pues querían quitarse la competencia hebrea de encima. Mientras que para los gentiles se daba el Renacimiento, para los judíos el progreso parecía vedado. Aunque es dudoso que sin el gueto hubiese sobrevivido como tal la cultura judía, no lo es que fuese algo humillante.

Por supuesto esto tuvo consecuencias doctrinales y es que se hizo cada vez más estricta la observancia de la ley del Talmud. La ortodoxia llegó a niveles no vistos antes, creando un modelo único de judío. Es decir, la tradición judía rabínica se asentará y posteriormente extenderá con las migraciones a Europa del Este. Concretamente a Polonia Lituania, la famosa mancomunidad que dominó el mundo eslavo oriental. Polonia-Lituania mantuvo una atípica política de tolerancia, siendo denominada “el cielo de los judíos”.

Como particularidad, el Gran Rabinato recaudaba impuestos allí y de ese dinero el 30% iba para los propios hebreos, mientras que el resto se destinaba al monarca para su protección. Al encargado de la recaudación, que además gestionaba la comunidad, se le llamó Qahal. Aunque durante El Diluvio experimentaron un periodo de crisis y tuvieron problemas con los cosacos, lo cierto es que en general las relaciones con el pueblo eran bastante buenas. No era nada raro ver beber juntos a un polaco y a un hebreo, e incluso con el fin de la Mancomunidad, los judíos acompañaron al pueblo en la rebelión contra los rusos (Hundert, 2004, pp. 51-52). Y eso fue el principio del fin del cielo polaco.

El Imperio Ruso se quedó con la mayor parte del territorio de la Mancomunidad, e inmediatamente introdujo cambios en la vida hebrea del Este. Pero si el siglo XVIII acababa mal para ellos, el XIX fue nefasto. Se prohibió la enseñanza en yidish, lengua que les unía a los judíos de origen alemán, los askenazi. Además les estaba vedado alquilar propiedades, y entrar a Rusia. Fueron expulsados ​​de la industria cervecera, su principal fuente de sustento. Las medidas más duras diseñadas para obligar a los judíos a unirse a la sociedad y lograr su conversión a la fe ortodoxa (Domnitch, 2012, p. 11). Y además exigieron su expulsión de las aldeas, siendo forzados a trasladarse a las ciudades. Una vez que comenzó el reasentamiento, miles de judíos perdieron su única fuente de ingresos, y vivieron de la mendicidad.

Finalmente suprimieron a los qahales de la vida pública, anulando su representación administrativa. Y esto tendrá mucha influencia en acontecimientos venideros. Aislados de los suyos y condenados a menudo a un estado de carestía, el hermanamiento entre los campesinos y trabajadores polacos con el pueblo de Moisés se terminó. Sin embargo, en la Europa central de los guetos algo iba a cambiar la situación hebrea para siempre. Concretamente el lugar donde comenzó la revolución cultural fue en los estados alemanes del Imperio. Este movimiento se denominó Haskalá, la ilustración judía, y consistió precisamente en salir del gueto. Supuso así un intento más o menos fructífero de integración en la sociedad gentil que dio lugar a unos cambios permanentes en el mundo entero.

Toda revolución tiene un protagonista más o menos claro, y en este caso nuestro hombre es Moses Mendelssohn. Este pensador askenazi leyó desde joven libros en alemán, cosa prohibida por autoridades hebreas. Mendelsshohn aprovechó un clima de tolerancia a los hebreos para intentar superar las barreras entre ambas sociedades y pensando que lo que más les separaba era la lengua, tradujo la Torá al alemán.

Además tuvo publicaciones filosóficas en dicha lengua y mantuvo una agria polémica con un pastor suizo llamado Lavater. Finalmente ambos se reconciliaron, admitiendo el de Zurich que el hebreo era “un alma brillante”. Esta amistad fue sincera, e incluso cuando los judíos suizos sufrieron amenaza de expulsión, Lavater intervino a instancias de su amigo askenazi, y se evitó la tragedia (Abrahams, 1911, pp. 120-121).

Pero no acaban allí sus logros intelectuales, en 1763 ganó un concurso filosófico, tan típicos del Siglo de las Luces. El que quedó segundo fue nada menos que Immanuel Kant. Afirmaba además que la diversidad era un designio de Dios y de la Providencia, y por tanto no tenía sentido ni justicia interferir en la religión del prójimo. Los que le siguieron se denominaron maskilim, esto es, hebreos ilustrados que pretenden salir del gueto e integrarse.

Los más ortodoxos, sin embargo, no gustaron de estas ideas, afirmando que traducir la Torá era herético, y que esto acabaría con la pérdida de identidad judaica. Teniendo en cuenta que todos los hijos de Mendelssohn se convirtieron al catolicismo, algo de razón tenía. Incluso el propio Moses al final de su vida, según cuentan sus amigos, acabó siendo un espinozista, lo que implica ser prácticamente ateo (Altmann, 1973, p. 733). El escritor askenazi Henrich Heine llegaba a definirle como el Lutero de los judíos.

Por supuesto que si hablamos de la Haskalá tenemos que mencionar la educación. Los maskilim entendieron que allí estaba el futuro, en la educación de las siguientes generaciones de judíos. Así que en 1778 en Berlín se funda la primera escuela ilustrada, la Freischule, la escuela libre. Esta ofrecía una enseñanza muy completa, que incluía alemán y francés, algo de la Biblia y hebreo. Otras escuelas siguieron a este prestigioso centro, abriéndose muchas en Frankfurt y otras ciudades alemanas. Asimismo, estas escuelas eran gratuitas, para enseñar a los niños pobres, e incluso se abrieron algunas para niñas, como la de Bremen. Un enorme avance educativo en la época.

Pero si algo tenían en común todos estos colegios era que quitaban el Talmud como centro de enseñanza. Además pasaron de investigar el conocimiento a través de la verdad revelada a la observación empírica y objetiva de la realidad. En 1810, en Kassel se da el primer seminario para instruir a los profesores. Y en Varsovia se abrieron también algunos centros educativos más. Pronto, como una mancha de aceite se extendieron por Europa las escuelas judías.

Incluso en Rusia, pese a la difícil situación, se dio este fenómeno. En 1870 había 2.000 niños escolarizados, se cuadruplicó la cifra diez años después (Enciclopedia Judía, 1906, pp. 1437-1439). Y por supuesto parte del logro real de la Haskalá fue que tras asistir a estas escuelas primarias, los judíos asistiesen a colegios de secundaria. Se integrarían entonces en la sociedad, como era el plan a largo plazo.

La incidencia del presente artículo en el tema de las lenguas no es casual. Y es que en muchos sentidos esta fue una revolución lingüística. Las barreras de idiomas debían romperse, pues eran los muros del gueto sociológico que vivían los hebreos. Los comerciantes alemanes, seguramente con la intención de sobreponerse a sus competidores, se quejaban de que los judíos utilizaban el yidis para engañar a los gentiles. Esta lengua tuvo mala prensa, incluso Mendelssohn decía que era gramaticalmente absurdo y fuente de corrupción moral (Abrahams, 1911, p. 73).

Es por esto que se enseñó el francés y el alemán, pudiendo crear así una red comercial que enriqueció a la comunidad. Aunque como suele ocurrir en estos casos, creció la desigualdad, siendo que el idioma de las élites judías fue el francés, y el de las clases populares el alemán. Además se produjo un resurgir del hebreo, idioma abandonado por los askenazis. Como aclaración, decir que la diferencia entre yidis y hebreo es que el segundo es el idioma judío original, mientras que el primero es del siglo X.

Este fue abandonado progresivamente, hasta el punto de que hoy en día solo lo habla un cuarto de la población judía e incluso en Israel está mal visto por muchos. Seguramente porque la diferencia entre hebreo y yidis refleja la tensión entre la vida secular y laica, entre los askenazis y el resto de hebreos. Una constatación de desigualdad, de hecho tanto sionistas como ortodoxos hoy en día lo desprecian (Kavon, 2014, p. 20). Además el hecho de que sea originario de Alemania tras lo ocurrido en el Holocausto no ayuda.

Pero aunque este sea un tema muy interesante, no debemos desviarnos de la Haskalá y otra de las cuestiones que trató, la reforma de la religión hebrea. Todo culto ha de ir adaptándose a sus fieles, y la estricta observancia del Talmud en el gueto estaba muy obsoleta. El aislacionismo que estaban proponiendo era contrario a la lógica comercial y la globalización que empezaba en la Edad Moderna.

Pero más llamativo y pintoresco resulta la cuestión del mesianismo, siendo que la religión hebrea espera a un mesías (la cristiana ya la tuvo con Cristo). Un caso muy paradigmático e influyente fue el de Shabtai Tzvi, un carismático teólogo del siglo XVII que reunió a miles de seguidores. Desde Holanda a Italia, Polonia y los Balcanes, le siguieron en procesión a Palestina, pues Shabtai se proclamó a sí mismo como el mesías. Las autoridades otomanas, preocupadas, comenzaron a arrestarles, pero sus seguidores continuaron creciendo. Así que le dieron a elegir entre un turbante y la espada, es decir o conversión al islam o ejecución. En algún momento este supuesto mesías decidió que morir por sus creencias estaba sobrevalorado y se convirtió al islam. Los rabinos de toda Europa que habían proclamado la llegada del salvador decidieron borrar los registros, siendo muchas sinagogas hoy que dejan ese espacio de su historia en blanco (Gottreich, 2013, pp. 187-193).

Esta decepción junto a otras llevó a los pensadores hebreos a dejar de depender intelectualmente de la llegada de un mesías. Jonathan Eybesch”uetz lo resumía muy bien al decir que el gran logro de un mesías sería “conseguir clemencia a su pueblo por parte de otras naciones (Enciclopedia Judía, 1437). Y se empezó a ver su diáspora no como un castigo divino, sino un resultado de decisiones políticas. Y esto es clave, porque implica que su castigo en la tierra no era algo irreversible salvo designio divino, sino perfectamente modificable, así que se irían viendo alternativas. Por ejemplo muchos en Rusia se adhirieron al socialismo, aunque era difícil confiar en los obreros y campesinos rusos tras los pogromos, y otros tantos abrazaron el sionismo. Incluso el nacionalismo gentil se fue popularizando, como prueba que en 1807 la Asamblea de Notables Judíos usase el término “franceses de la religión de Moisés”. Además se simplificaron los rituales, eliminando poemas medievales, terminando con la segregación por sexo en la sinagoga, y tratando de hablar más de ética que de formalismos ceremoniales. En cierto sentido, con la Haskalá muchos judíos dejaron de serlo.

Otro producto de la Haskalá es que los hebreos se destacaron como grandes financieros, al menos una pequeña parte. Lo cierto es que la mayoría de empleos de los judíos eran de medicina, peluquería o talleres, fomentados por la Haskalá. Pero más antiguo aún es el origen de su habilidad económica, para ser exactos en el Deuteronomio 23, 20-21 que dice: “No prestarás a interés a tu hermano, sea rédito de dinero o de víveres o de cualquier otra 10 cosa que produzca interés”. Es decir, cobrar al gentil sí, pero nunca al correligionario. En el siglo XIX, con el auge del capitalismo, hubo hebreos que tuvieron esta visión y habilidad para destacar. Hay muchos nombres como Walburg, Goldman Sachs, pero ninguna destacó tanto como los Rothschild.

La influencia de esta familia se extendió por toda Europa, siendo en total cinco hermanos especialmente hábiles para los negocios. París, Nápoles, Frankfurt, Viena, Londres y Nápoles fueron los sitios elegidos por la dinastía. Aunque podríamos dedicarle un artículo propio, diremos simplemente que Nathan Rothschild inventó un modelo de negocio que el resto de financieros imitó. Primero emitir bonos, a partir de los cuales consigue fondos, y financiar gobiernos. Por supuesto, reinvertir el dinero en una serie de redes clientelares, aliados poderosos, que ayudasen al negocio. “Si un hombre poderoso adquiere una deuda con un judío, este pasa a ser judío” decía su padre. Pronto Metternich, Wellington, Luis Felipe de Orleans y posteriormente la Reina Victoria fueron clientes de esta familia. Como no permitieron a ningún nieto fundar otra rama, y además se casaban entre ellos, tuvieron que contratar agentes para tener información propia en Madrid, San Petersburgo, Nueva Orleans, La Habana…Hicieron su propio servicio de mensajería, periódicos, aunque desde luego tuvieron derrotas graves. Fracasaron al impedir la invasión prusiana a Francia, tuvieron que abandonar Nápoles tras la unificación, y anteriormente Napoleón les obligó a recurrir al contrabando. Pese a las teorías conspiratorias, nunca fueron infalibles (Ferguson, 2018, pp. 176-184). Sin embargo ellos y algunos otros posibilitaron el desarrollo del capitalismo decimonónico tal y como lo hemos concebido.

Fuente(s): archivoshistoria.com
Seguir Leyendo
Copyright © . La Gran Paradoja Todos los derechos reservados. QPlantilla © design by neronsn Acerca del Sitio // Politica de Cookies // Sitemap // Contacto // Ir Arriba