Feeds:
Entradas
Comentarios

Archive for 16 octubre 2008

Les cuento que presentaré un trabajo denominado “Comunidades Colaborativas: una herramienta organizacional”, en la Conferencia Internacional de Sofware Libre a realizarse en Málaga entre el lunes 20 y el miércoles 22 de octubre.
Se trata de una idea construida sobre una experiencia, la que hicimos en el excelente equipo coordinador del Foro de Responsables Informáticos, liderado por el amigo y colega José Carllinni.
Bueno, los organizadores de este evento estiman unos 8.000 asistentes y serán ponentes (expositores) unas 250 personas. Intentaré comentarles todo lo interesante que vea, dentro de lo posible.
Nos leemos la semana que viene!

Nota: si me envian mails tengan en cuenta la diferencia horaria (+4 horas desde la semana próxima)

Read Full Post »

Fuente: oswc

La Conferencia Internacional de Software Libre, Open Source World Conference, es sin duda el más importante evento relacionado con tecnologías de fuente abierta de España y también de Europa.

La celebración de la conferencia, tras cinco ediciones, se ha convertido en una cita obligada para las personas y empresas relacionadas con el software libre. Un evento que empieza a convertirse en tradición dentro del sector y que sirve de punto de reunión anual para la comunidad.

El objetivo de la Conferencia es mostrar el Software Libre como una realidad consolidada, más allá de una solución potente, robusta y segura, por la que es aconsejable apostar. La conferencia ha tenido año tras año un enfoque multidisciplinar y abierto a todos los actores y problemáticas lo que ha constituido un éxito rotundo.

La Conferencia Internacional de Software Libre se caracteriza por la ponderación y el equilibrio, sin una presencia preponderante de ningún sector o actor; con la mezcla adecuada de públicos/grupos interesados en el software libre; una organización mixta público-privada con una mezcla proporcionada de contenidos en el programa de la Conferencia y una importante presencia internacional con carácter global.

Las grandes áreas sobre las que se construye el programa para la edición de 2008, están vinculadas a profundizar en aspectos de la vertiente técnica, siempre necesarios desde distribuciones y lenguajes de desarrollo a estándares; se revisarán las iniciativas institucionales de impulso a la utilización de software libre; destacarán las ponencias y talleres relacionados con los aspectos empresariales y los nuevos ecosistemas de negocio que se están generando y, finalmente, se tratarán aquellos temas que conciernen a aspectos socio-culturales, de accesibilidad e inclusión digital.

Conferencias magistrales, sesiones plenarias y mesas redondas con los más importantes conferenciantes y actores del sector serán complementadas por una zona de exposición donde se podrán seguir experiencias reales y conocer los productos y proyectos últimos lanzados por las empresas y otras instituciones.

La participación total estimada superará los 8.000 participantes contando como patrocinadores con las más importantes empresas del sector, la presencia activa de instituciones multilaterales, europeas, nacionales y autonómicas así como de las comunidades de software libre a nivel mundial. El área expositiva y de actividades complementarias superará en esta edición los 6.500m2

Read Full Post »

Fuente: consumer

Ars Electronica es el festival de arte y nuevas tecnologías más importante del mundo, y no sólo por ser el decano. Cada comienzo de septiembre, la crema y la nata de la cultura digital se acercan hasta Linz, una vetusta ciudad a orillas del Danubio, y celebra una semana frenética de exposiciones, conciertos y conferencias. El simposio de este año estaba dedicado a “Una nueva economía de la cultura: los límites de la propiedad intelectual”. Su comisario y moderador, Joichi Ito, es una auténtica personalidad de la Red, el primer miembro de la red social Orkut a quien expulsaron, literalmente, “por tener demasiados amigos”.

Su página de Wikipedia lo define como “empresario, activista y capitalista de riesgo”, y aunque en vidas anteriores fue disc-jockey y trabajó en la industria del cine, desde hace tiempo se dedica a proyectos de Internet. Fundó uno de los primeros proveedores comerciales de Internet en Japón, y más tarde su empresa de capital de riesgo Neoteny fue uno de los inversores de referencia de Six Apart, los creadores de las plataformas para blogs Movable Type, Typepad y Vox. En la actualidad Joichi “Joi” Ito se enfrenta al reto de llenar el hueco dejado en Creative Commons por la marcha de Laurence Lessig, que sólo dedica parte de su tiempo a la organización que fundó.

Una vez refinadas las licencias, Ito y Creative Commons proponen ahora convertirlas en parte de la infraestructura de la Red. De hecho, bajo la dirección de Ito, la idea es que Creative Commons se convierta en una especie de organización de estándares del copyright, creando los formatos tecnológicos por los que los creadores, el público, los buscadores, los gestores de derechos, los programadores de navegadores y todos los demás agentes de Internet se comuniquen entre sí qué derechos están disponibles sobre las obras, e incluso qué derechos están reservados.

  • Autor: Por JAVIER CANDEIRA ZUGAZA
  • Fecha de publicación: 2 de octubre de 2008

Laurence Lessig se ha retirado del día a día de Creative Commons (CC) y las licencias han tenido un gran éxito. Sin embargo existe una impresión, tanto dentro del proyecto como fuera, de que la actividad ahora se limita a asegurarse de apretar bien los tornillos para que las licencias no hagan ruidos raros, y que se ha alcanzado un nivel de vuelo estable. Para bien o para mal, ya no estamos subiendo, sino simplemente manteniendo la altura. ¿Es una percepción correcta?

“Hemos pasado del experimento entre gente interesada y dispuesta a enfrentarse a los problemas, al público que espera que las cosas funcionen a la primera”

Creo que es correcta. Yo vengo del mundo de la infraestructura. Fui el primer director de la primera empresa comercial de Internet en Japón, hice los primeros sitios web en mi país, recuerdo los comienzos de las redes comerciales TCP-IP, y recuerdo pasar de intentar que el correo simplemente funcionara a tener que preocuparnos por el spam. Así que creo que el ejemplo que me da es bueno: hemos pasado del experimento entre gente interesada, que está dispuesta a enfrentarse a los problemas, al público que espera que las cosas funcionen a la primera.

Ahora, llegados al punto en el que Google, Microsoft y Yahoo! están integrando las licencias Creative Commons, cada vez más empresas dan por hecho que son parte de su infraestructura crítica. Las licencias las usa gente a la que no les importa el movimiento Creative Commons, y que sólo lo hacen por motivos prácticos, en empresas o para bases de datos gubernamentales, o científicos. Por esto tenemos que hacer que [Creative Commons] funcione bien, y también tenemos que cambiar la mentalidad pública para que no lo vean como una lucha.

“Nuestras licencias las usa gente a la que no les importa el movimiento Creative Commons, y que sólo lo hacen por motivos prácticos”

Aunque sigue siendo una lucha, pero la lucha ya no es lo único. Necesitamos que el compartir se vea como parte del espectro político al completo. Compartir no es sólo para hippies de izquierdas; compartir es para compañías farmacéuticas, arquitectos, para todo el mundo.

El otro reto es que según Creative Commons se va ampliando geográficamente, la organización se hace más y más compleja, y cada nueva voz que se nos une requiere más esfuerzo para ponernos a todos de acuerdo, en plan de logística organizativa. No queremos acabar como la ITU o ICANN, o como el W3C, a los que se critica por ser burocráticos y lentos. Este es un reto que tendremos que afrontar. Hemos pasado de ser rápidos y ágiles a estar en un punto en el que tenemos tanta gente hablando con nosotros que tenemos que trabajar duro para seguir siendo operativos.

Creative Commons está en el momento dulce. Hemos ido creciendo poco a poco, y nos conocemos todos personalmente, somos amigos… Somos 47 jurisdicciones, pero ¿qué pasa cuando seamos doscientas? Será interesante.

¿Entonces no es que se trabaje menos, sino que el trabajo se ve menos?

“No es el momento de dar discursos, sino de escribir código”

Sí. El hecho de llevar la camiseta ya no es tan efectivo, y el efecto de escribir diez mil líneas de código para que esto funcione es lo que ahora es necesario, pero no es tan divertido para tanta gente. No es el momento de dar discursos, sino de escribir código.

Estamos aquí en Linz, rodeados de todo tipo de artistas e intelectuales de la cultura libre, y no vemos a “Terminator” viniendo del futuro para matarnos a todos. ¿Quiere esto decir que ya hemos ganado?

No, aún no. Pero estamos ganando pequeñas batallas, aunque… no es una buena metáfora, porque cada vez que ganamos, la otra parte también gana. Por ejemplo, un paso importante fue conseguir que las agencias danesa y holandesa de gestión colectiva de derechos aceptaran la coexistencia de las licencias Creative Commons junto con las licencias con las que habitualmente gestionan las obras de sus miembros. Muchos no creían que fuera posible llegar a un acuerdo con las sociedades de gestión de derechos, y aunque sea un pequeño paso, es un paso importante.

“Artistas conocidos como Nine Inch Nails han demostrado que se pueden usar licencias Creative Commons y aun así ganar dinero”

Luego están los artistas conocidos como Nine Inch Nails, que demuestran que pueden usar licencias Creative Commons y aun así ganar dinero; estamos hablando del lado “Terminator” del mundo. Pero estamos demostrando que podemos trabajar con la gente que está dispuesta a ser flexible, demostrándoles que no somos “anti-negocio” ni “anti-Copyright”, y a la vez demostrando a la comunidad de Creative Commons que algunos de estos personajes pueden tenerlo claro, que “lo pillan”. Dicho esto es verdad que esta gente está en minoría.

Pero sigue habiendo personas que se equivocan, que creen que Creative Commons es “anticopyright”, como Andrew Keen [el auto proclamado líder de la oposición a Internet], que va por ahí diciendo lo contrario de lo que representa nuestro proyecto. Hay gente por ahí que tergiversa lo que decimos, que dice que obligamos a la gente a regalar sus derechos y abandonarlos, que Flickr roba las imágenes. El peor de estos mitos es que somos “anticopyright”. Hay gente que lo es, y algunos de mis amigos lo son, pero Creative Commons es un entorno para el Copyright, para que el mayor número posible de personas puedan ejercer y respetar los derechos de autor.

Yo suelo decir que aplicar Creative Commons al Copyright es como poner un potenciómetro donde antes había un interruptor de la luz; que es algo que permite tener varios niveles de Copyright donde antes el Copyright sólo podía ser total o cero.

Correcto.

Pero cree que en el caso de Andrew Keen y de otros, esa ignorancia de la que habla usted, ¿es real o fingida? ¿De verdad es un malentendido idiota, o es una propaganda maliciosa contra Creative Commons porque lo ven como una amenaza, no sólo contra su modelo de negocio, sino, en algunos casos, contra su visión del mundo?

“Hay individuos que dicen que obligamos a la gente a regalar sus derechos y abandonarlos, y eso o bien es ignorancia o bien idiotez”

Hay un dicho que recomienda “no atribuir a la malicia lo que se pueda explicar con la estupidez o la ignorancia”, así que yo tiendo a darles el beneficio de la duda y pensar que son tontos o están mal informados. Es posible que haya casos muy estratégicos de gente que piensa “esto puede socavar esto”, y “esto otro puede socavar aquello”, pero en la mayor parte de los casos, cuando se habla con ellos, incluso si no están de acuerdo, conceden que puede tener sentido. Así que me considero una especie de optimista, ya que creo que la gente es más estúpida que maliciosa.

Ya le he preguntado por si hemos ganado. Ahora viene el otro lado de la moneda. ¿Qué riesgos posibles ve de perder la batalla?

“Como organización, cada vez nos es más caro funcionar: Creative Commons cuesta 2,5 millones de dólares al año, y el grifo se puede cerrar en cualquier momento”

Un problema posible que veo es de puro funcionamiento. Que nos quedemos sin dinero. Como organización, cada vez nos es más caro funcionar: Creative Commons cuesta 2,5 millones de dólares al año. Afortunadamente tenemos quien nos dé dinero, aunque siempre tengamos que estar mendigando, pero también pasa que cuando hablamos mucho de modelos de negocio, la comunidad empieza a sentirse inquieta. Es un equilibrio que tenemos que manejar con cuidado.

En fin, que tenemos quien nos financie: la Fundación Wikipedia, Google, Hewlett Packard, pero claro, esto no son ingresos regulares, y el grifo se puede cerrar en cualquier momento. El otro riesgo es que nos convirtamos en la ITU, y nos muramos de complejidad organizacional y de política interna.

“Existe el riesgo de que nos muramos de complejidad organizacional y de política interna”

Estos son los dos problemas más grandes que veo, los dos son problemas organizativos, y como director general, la razón por la que acepté este trabajo es que me pregunto cómo gestionamos esta organización, cómo la financiamos… No veo peligros externos a Creative Commons, no creo que nadie pueda destruirnos, porque en cierto sentido no hay nada que destruir.

Quizá he hecho la pregunta de forma demasiado amplia. No preguntaba por los peligros para Creative Commons, sino por los posibles peligros para la cultura libre. En el caso del software libre el peligro que se ven son las patentes de software, en el caso de la cultura libre estos riesgos vendrían de DRM (Gestión de Restricciones de Derechos).

“No se me ocurre cuáles podrían ser los peligros para la cultura libre”

Si las herramientas, la infraestructura y los servicios hacen más difícil que los amateurs puedan crear y compartir su obra, la cultura libre se vería en peligro. Pero sinceramente no lo veo probable; el DRM cada vez tiene menos agarre, la competencia en el mercado de las herramientas de creación es tan grande que los programas y dispositivos “proamateur” son cada vez mejores. En general las herramientas van a mejor, las tendencias son las correctas, y no se me ocurre cuáles podrían ser los mayores peligros para la cultura libre.

Más bien los peligros en general serían de regulación. Si al vídeo en la Red se le aplicaran las leyes de radiodifusión, si se aplicara el filtrado de contenidos obligatorio, que se exijan permisos para la edición en la Red, algo que ciertos países están contemplando, y en general la limitación del acceso a la publicación en la Red para que sólo sean los profesionales los que lo hagan. Esto se haría usando los hombres del saco habituales: la pornografía infantil, el terrorismo, el narcotráfico, el fraude, el spam… En general, estas son las razones que van a dar para intentar cerrar la Internet. Ese es nuestro mayor miedo.

Una de las críticas que se dan en España [y probablemente en otras circunscripciones] es que Creative Commons proviene un sistema de ley importada, sajona y consuetudinaria, la Common Law, y que al no emanar del Derecho Continental Europeo, el sistema no va a funcionar, que las licencias no son válidas.

Es lo que dijeron del protocolo TCP-IP. Dijeron que sería imposible de implementar en Europa, y en Japón dijeron que incluso sería ilegal. Las compañías japonesas tenían acuerdos entre ellas, y decían que el TCP-IP no funcionaría. Lo curioso es que en Japón esas mismas empresas empezaron a usar el TCP-IP llamándole de otro modo, y pasó un montón de tiempo hasta que aceptaron usar los protocolos de Internet.

Pero al final el valor de la compatibilidad e interoperabilidad es tan grande que… Si examinamos la tecnología de conexión Ethernet [el puerto que conecta los ordenadores a Internet por cable] veremos que ni siquiera es el mejor protocolo que existe para poner en contacto dos aparatos. Pero en su momento era el mínimo común denominador, y todo el mundo lo adoptó y esto creó una explosión de creatividad, de servicios y de valor. Lo mismo pasó con TCP-IP, que no es ni de lejos el mejor protocolo pero es el que interconectó a todo el mundo y simplemente funcionaba.

“Lawrence Lessig dice que Creative Commons es como la aspirina: no cura el cáncer, pero es estupenda para controlar cierto tipo de dolor de cabeza”

Del mismo modo, Creative Commons no resuelve todos los problemas. Larry [Lessig] dice que “Creative Commons es como la aspirina: no cura el cáncer, pero es estupenda para controlar cierto tipo de dolor de cabeza. Es un problema que todo el mundo tiene, y la aspirina resuelve el 90% de los casos”.

Pero tiene que ser un estándar global. Los sistemas de interoperabilidad no funcionan si cada país tiene el suyo. Creative Commons es una plataforma para la interconexión de conocimiento, personas e ideas, que te permite ser más italiano, o más japonés, y comunicar y compartir con el resto del mundo. Esto es lo que permite una explosión de diversidad en la capa superior, pero las licencias forman parte de la infraestructura, y no conviene tener una explosión de diversidad en la capa de infraestructura.

Los italianos, o quien sea, deberían darnos su opinión sobre cómo mejorar las licencias, y nosotros escuchar sus comentarios e integrarlos, pero creo que no es buena idea ser creativo en la generación de licencias, es como crear una segunda Internet. Ya hay gente intentando hacer una Internet china, una Internet árabe, pero esto sería un desastre.

Sobre la proliferación y compatibilidad de licencias, han hecho ustedes un gran esfuerzo para ser compatibles con la GFDL [licencia de documentación libre del proyecto GNU de la Free Software Foundation], y Debian acaba de aceptar en su archivo algunas de las licencias Creative Commons, concretamente las que son libres según freedomdefined.org. ¿Cuánto de esto es política oficial de Creative Commons a favor de la compatibilidad, y cuánto ha sido simplemente trabajo de individuos particulares con un interés personal en la compatibilidad de proyectos?

Es una combinación de ambos. Desde el comienzo Creative Commons ha sido muy consciente de los problemas de la proliferación de licencias; yo estuve en el Consejo de la Open Source Initiative, y creo que la OSI se dio cuenta del problema muy pronto. Hay muchas licencias Open Source [un difereciación de las licencias GNU], demasiadas, pero por ejemplo desde la OSI conseguimos que Intel dejara de usar la suya propia y usara una genérica, lo que fue una gran victoria.

“Desde el comienzo Creative Commons ha sido muy consciente de los problemas de la proliferación de licencias”

Creative Commons ha hecho todo lo posible por evitar la proliferación de licencias. Dicho esto, creo que hemos fracasado porque la Universidad de Tokio tiene su propia licencia, y también la BBC. O sea, que no siempre conseguimos nuestros objetivos, pero lo intentamos con mucho esfuerzo.

En cuanto a la compatibilidad, por supuesto que hay trabajo de individuos, pero también de nuestros socios. Por ejemplo, Wikipedia y la Wikimedia Foundation nos han ayudado enormemente en la tarea de acercar nuestras licencias libres a la GFDL hasta que fueran compatibles con las de la comunidad de Wikipedia.

Por eso le preguntaba por los individuos: aquí hay dos personas que son Benjamin “Mako” Hill y Erik Moeller, que con su proyecto Freedomdefined.org han hecho mucho por levantar la confusión entre las licencias Creative Commons y las licencias libres, porque no todas las licencias Creative Commons son libres.

Correcto. Y estas dos personas, Mako y Erik son personas claves, han sido fundamentales para lograr esta compatibilidad. Nuestro equipo está en muchas listas de correo de otros proyectos, nos repartimos las tareas, yo participo personalmente en la lista de licencias de Wikimedia, y creo que somos muy sinceros en lo que decimos de escuchar a todo el mundo. También estaba claro que conseguir la compatibilidad de nuestras licencias con la GFDL era algo que obviamente teníamos que hacer, y nos han ayudado mucho a hacerlo.

“Creative Commons ofrece una opción distinta para cada persona, pero para un músico que tiene un contrato la cláusula no comercial no es una opción, es su única opción”

Nunca hemos dicho que todo el mundo tenga que usar todas nuestras licencias. Creative Commons ofrece una opción distinta para cada persona, pero para un músico que tiene un contrato, la cláusula no comercial no es una opción, es su única opción, y ya es de por sí un gran paso. Pero no queremos que los materiales educativos se publiquen con licencias no comerciales.

Hay muchas formas de evitar la proliferación de licencias. Google Code sólo ofrece a los programadores que tienen ahí sus proyectos un par de licencias o tres, no más. Nosotros tenemos muchas opciones porque tenemos muchas comunidades, y dentro de cada comunidad los pasos que pueden dar son limitados, pero esperamos que puedan ir subiendo paso a paso hacia licencias más libres. En realidad es totalmente consistente con nuestra misión, y con la misión de la Free Software Foundation, que ellos sólo acepten como libres dos de nuestras licencias, eso nos parece bien.

Creative Commons ha estandarizado, por así decirlo, sobre las licencias GPL y LGPL. ¿Proveen ustedes una interfaz para ellas?

Sí, damos un “wrapper” [literalmente "envoltorio", en este caso entorno gráfico web similar al de elección de licencias CC que permite aplicar la GPL a una obra usando los formatos de metadatos de Creative Commons] , y cada vez más la comunidad del software libre se está dando cuenta de que para la documentación y ciertos tipos de contenido las licencias Creative Commons [algunas de ellas] tienen sentido. De nuevo se trata de mantener la interoperabilidad, porque no quieres que haya diez tipos distintos de licencias de copyright, no quieres una proliferación de licencias.

En esta entrevista ha comparado a Creative Commons con la ITU, ICANN, y con el W3C. Creative Commons no es una organización internacional de estándares, sino una fundación de derecho privado. Pero en su charla en el simposio de Ars Electronica habla como si fuera “la organización de estándares para las licencias de contenido libre”, incluso dice esa frase literalmente.

ICANN [la organización que rige el funcionamiento de Internet] es una organización sin ánimo de lucro registrada en California, y está gobernada por la legislación de los Estados Unidos. Estamos intentando cambiarlo, pero no es fácil, no hay una forma clara… El problema es que no hay entidades internacionales que no sean entidades intergubernamentales. Así que es muy, muy difícil… No tengo muy claro ahora mismo cómo se organiza el W3C, pero apostaría a que es un conjunto de pequeñas fundaciones sin ánimo de lucro. [En realiadad es un consorcio de empresas y universidades.]

“Cada vez Creative Commons se irá pareciendo más a una organización internacional de estándares del copyright”

Así que en realidad ICANN y Creative Commons no se diferencian tanto desde un punto de vista legal. ICANN tiene un consejo de dirección, Creative Commons tiene un consejo de dirección, ICANN tiene un Director General, Creative Commons tiene un Director General… La principal diferencia que le veo está en las fuentes de ingresos. Pero se puede decir que, de algún modo, ICANN es una organización internacional de estándares.

Así que aún no vamos a llamar a Creative Commons una organización de internacional de estándares, pero se le va a parecer más y más según nos vayamos metiendo en la tecnología. La nueva iniciativa RDF con el W3C para introducir nuestro código de licencias en el estándar de XHTML es un proyecto muy importante, así que sí, cada vez Creative Commons se irá pareciendo más a una organización internacional de estándares de los derechos de autor, al menos en parte de lo que hacemos.

¿Cuáles son los siguientes pasos? ¿Están relacionados con la Web Semántica?

Sí. La próxima etapa para nosotros, que es muy importante, es introducir nuestros protocolos de licencias en XHTML y la Web Semántica de Tim Berners-Lee, y hacer que las herramientas para buscadores sean sencillas, interoperables y sin fisuras. No queremos concentrarnos sólo en las licencias Creative Commons, sino ayudar a crear tecnología y especificaciones para todas las licencias. En algún momento, nos gustaría aportar opciones más allá de Creative Commons.

Como ya hicieran con la GPL y la LGPL…

“Si podemos conseguir que nuestro sistema de licencias vaya en el estándar de HTML5, entonces todas las compañías grandes lo usarán automáticamente”

Sí, por supuesto. E incluso para el contenido “todos los derechos reservados”, que puedan usar libremente nuestro RDFAM, que es una herramienta valiosísima, a ese nivel. El primer paso con el W3C ha sido un paso muy importante para nosotros. Si podemos conseguir que nuestro sistema de licencias vaya en el estándar de HTML5, entonces todas las compañías grandes lo usarán automáticamente, y poner una licencia Creative Commons será sólo el trámite de reconocerlo en un fragmento de código, todo estará integrado sin fisuras.

¿Un último comentario?

Como autocrítica, creo que todavía seguimos de alguna manera predicándonos entre los conversos, que hemos llegado muy lejos pero mucha gente aún no sabe qué es Creative Commons, ni qué son exactamente los derechos de autor, y creo que tenemos que reflexionar nosotros mismos sobre cómo comunicar estos temas al público.

Una manera es que esté asumido en la tecnología, como estamos haciendo, pero todavía creo que en cierto momento el usuario tiene que entender qué es lo que está pasando. Ya hicimos unas animaciones en flash que molaban mucho, pero aún queda mucho trabajo de comunicación por hacer. Esta comunicación pasa por despolitizarlo, que parezca menos un asunto izquierdoso, y más una solución práctica para problemas que tiene todo el mundo.

Read Full Post »

Fuente: linuxzone

¿Qué hacemos con nuestros equipos viejos y de escasa potencia? Obviamente, lo primero que nos viene a la cabeza a todos es instalarle una distribución ligera y sacarle partido de ese modo. Pero hay más opciones que nos pueden resultar útiles tanto en el trabajo como en actividades de ocio. A continuación, encontraréis 11 modos distintos de aprovechar vuestros viejos equipos con las correspondientes opciones de software disponible.

Todas las opciones que comento a continuación disponen de abundante información en los homesites de los respectivos proyectos o en how-to’s distribuidos por la red.

1) Firewall o router

Tener un viejo pc funcionando como firewall o router te ofrece (además de ahorrarte la compra del modem-router) muchísimas opciones de configuración y de seguridad ya que el software disponible es variado y, en algunos casos, muy completo y potente. Algunas de las opciones libres (distribuciones y software) disponibles son:

2) Servidor de datos/archivos

Gracias a las opciones que nos ofrece GNU/Linux podremos centralizar nuestros datos en un pc que funcionará a modo de servidor de datos o realizar copias de seguridad de nuestro pc (o de nuestra red de equipos) con la periodicidad que deseemos.  Es esto último lo que más preocupa a muchas pyme’s y la tarea más tediosa para los administradores de redes. Con opciones como las relacionadas a continuación, los ‘backups’ y el acceso a los datos puede resultar más fácil y rápido.

Relacionada con esta categoría se encuentra la opción de configurar el servidor de datos (FreeNAS, por ejemplo) mediante SSH al que accederíamos mediante software cliente previamente instalado.

3) Servidor de impresión

Si tenéis una impresora conectada a un pc que la comparte, os habréis encontrado en la situación de deber encenderlo sólo para tener acceso a la impresora desde otro equipo. Esto se puede solucionar si configuráis una distribución ligera GNU/Linux en un pc destinado sólo a recibir la demanda de impresión desde equipos en una misma red. Existen muchos y buenos tutoriales qué explican cómo montar un servidor de impresión mediante CUPS (Common Unix Printing System), por ejemplo.

4) Servidor de fax

Especialmente interesante es esta funcionalidad para pyme’s y pequeñas/medianas empresas. Mediante ella podrán enviar faxes desde diferentes terminales sin desplazarse hasta el aparato de fax. Además, no deberemos imprimir todos esos faxes publicitarios que nos inundan a diario.

La propuesta más conocida para servidor de fax en GNU/Linux se llama Hylafax. Éste funciona como servidor de faxes y las demás terminales conectadas al hylafax-server (corriendo GNU/Linux, Windows o Mac) deberán contar con software cliente de fax instalado. Para ello hay opciones tanto comerciales como gratuitas y también gpl.

5) Servidor web o servidor ftp

Las opciones de las que disponemos los usuarios de GNU/Linux son innumerables en este punto, al igual que lo son las opciones de configuración. De hecho, es el mercado del servidor el que representa el ‘punto fuerte’ de GNU/Linux. Actualmente, la opción más sencilla para los noveles es proceder a la instalación del paquete LAMP (Linux-Apache-MySQL-php) pero existen varias alternativas.

En la sección de how-to’s de linuxzone tenéis algún tutorial que os puede orientar al respecto.

6) Filtro anti-spam

Cualquier usuario de correo electrónico conoce lo pesado y ‘cansino’ que puede llegar a ser el spam. Si, además, debéis gestionar el correo empresarial, el problema puede llegar a alcanzar dimensiones preocupantes. Configurando SpamAssassin en tu pc de filtro lograrás librarte de publicidad no deseada. Si os interesa esta opción, podéis empezar a informaros por el proyecto apache spam assassin.

7) Servidor proxy

Puede resultar útil si deseáis filtrar el acceso a determinadas webs desde vuestra red de pc’s o para ahorrar consumo de ancho de banda en caso de visitar muy a menudo las mismas webs. Hay muchísima información en la red sobre servidores proxy; para empezar, podéis consultar este how-to: “Squid, proxy caché en GNU/Linux“. También podéis echar un vistazo al proyecto ruso 3proxy (freeware).

8 ) Thin client

¿Qué se puede hacer si tenéis varios pc’s viejos? Podéis ‘transformarlos’ en thin clients dentro de una red de cómputo en la que la mayor carga de cálculo sea delegada en un pc más potente. Esta red tendría dos espacios bien diferenciados: por un lado, un pc potente (más o menos en función del número de clientes que tenga) y, por otro, una serie de pc’s clientes. El primero asumirá la mayor parte de carga de procesos y el almacenamiento de datos; los segundos, que funcionarán en modo cliente (thin client), delegarán parte de su demanda de cálculo en “su hermano mayor”.

Obviedad: en términos económicos, es ésta opción realmente óptima ya que el hardware que requiere el ‘thin client’ es inferior al los pc’s que funcionan en modo local (monopuesto) dentro de una red. No necesitando mucha potencia en cada pc, no es necesaria la compra de equipos muy potentes (podéis encontrar ofertas basadas en GNU/Linux a partir de 200 euros, por ejemplo) y/o podéis utilizar vuestros viejos equipos a modo de ‘thin client’. Además, el consumo eléctrico también descendería.

Hay varias propuestas en cuanto a software para crear y controlar una red de thin clients, por ejemplo: 2XThinClientServer (freeware), NX Server Free Edition, eBox, LTSP, ThinStation, TCOS, etc.

9) Voice mail server

Los entendidos, al oír “Voice mail server”, habrán pensado rápidamente en el proyecto Asterisk. Es éste una aplicación gpl multiplataforma que ofrece la posibilidad de crear un centralita telefónica para realizar llamadas entre los teléfonos conectados a ella o para conectar a un proveedor de VoIP. Con Asterisk podremos configurar buzones de voz, distribuciones automáticas de llamada e incluso crear nuevas funcionalidades de acuerdo con nuestras necesidades.

10) Media server

Un viejo pc, un HD, DVD/CD player, algo de hardware complementario y software reproductor multimedia; poco o nada más necesitamos para configurar nuestro propio media server. Para escuchar música, ver películas, fotos, TV (con una tarjeta de tv pci instalada) etc., no necesitamos un quad core. Es fácil adaptar un viejo pc para funciones de media server gracias a las posibilidades que nos ofrece GNU/Linux para diferentes configuraciones de hardware, por ejemplo:

11) Servidor de descargas P2P

Es habitual entre usuarios habituales de p2p tener un pc dedicado sólo a la descarga de archivos y a la compartición de los mismos en su red de pc’s.

Por ejemplo: Amule, probablemente el programa para red ed2k y kad más famosos en GNU/Linux, nos ofrece la posibilidad de instalarlo en un pc (server) y ser administrado remotamente mediante amulegui.

——————————————————————————————————————————————-

Los siguientes how-to’s de linuxzone están relacionados con la temática de este artículo:

Habéis leído diferentes alternativas de uso de vuestros viejos equipos. Pero, conociendo la imaginación del usuario de GNU/Linux, seguro que se pueden ampliar. “Sólo” necesitamos tiempo de estudio de esas posibilidades y algo de paciencia.

Nota final: he hablado en esta redacción de “pc’s viejos”. No me resulta posible describir las características (de hardware) necesarias para cada una de las funciones descritas ya que serán mayores o menores en función del software utilizado, la red a la que debe abastecer y, claro está, en función del modo de aprovechamiento de ese viejo (que no inútil) pc.

A partir de la lectura de dailycupoftech.

Read Full Post »

Fuente: puntogov

Qué hacer con el software libre
Si todo sigue como hasta ahora, cuando la presidenta Cristina Fernández anuncie el plan de la agenda digital argentina, las entidades que tienen que ver con el software libre estarán al margen. Sin embargo, los organismos más dinámicos del Estado usan software libre. En la ciudad autónoma, las quejas son de parte de los empresarios locales: Dicen que son ignorados en las licitaciones.

(Por Sabrina Díaz Rato) En los próximos días culminará el debate que viene manteniendo el sector tecnológico acerca de la Agenda digital argentina. Según pudo averiguar PuntoGov, el documento final que definirá las principales líneas de acción no contempla al software libre. Y teniendo en cuenta el creciente uso por parte del Estado de esta plataforma -no sólo para reparar la situación de ilegalidad sino también para mejorar la capacidad de los sistemas de la administración pública-, lo que llama la atención es que no se haya discutido el tema en la preparación del documento que dará a conocer la presidenta Cristina Fernández de Kirchner antes de fin de año. A días de dar por finalizado el debate oficial, la pregunta que flota en el aire y en más de uno es por qué empresas del sector o las organizaciones como Fundación Vía Libre o Solar -que cuentan con personería jurídica y representan ampliamente los intereses del ámbito de software libre- fueron ignorados, o por lo menos, no fueron convocados para aportar su perspectiva y conocimientos técnicos sobre el asunto.

Un breve repaso
En la Argentina, como en la mayoría de los países de la región a excepción de Venezuela, no hay una norma que obligue o impida el uso de determinado software en los organismos públicos. Sin embargo, si uno observa cómo avanza el Open Source en el Estado argentino, se distinguen las políticas que han llevado adelante organismos como AFIP o ANSES, que han elegido migrar a estas plataformas. Algunos ejemplos bastan para comprobarlo: Todas las aplicaciones de infraestructura en la AFIP se desarrollan con software libre. Aplicaciones gráficas, de telemetría, seguridad y monitoreo, así como la mayoría del software en este organismo, corren sobre SL, incluido las aplicaciones de misión crítica como la recepción de declaraciones juradas y pagos. “En un año o año y medio más del 100 por ciento de nuestras bases de datos y de los procesos centrales residirán en sistemas operativos abiertos”, señaló a PuntoGov, Jorge Linskens, la autoridad informática máxima de esa administración. Otro de los que viene desarrollando la modalidad es SIU, el consorcio de universidades que desarrolla soluciones informáticas y brinda servicios para el Sistema Universitario Nacional y distintos organismos de gobierno. Su directora, María Luján Gurmendi, indicó que en la Argentina el único software liberado para uso público es el SIU-Toba, que permite construir aplicaciones Web y que se puede descargar gratis de Internet. Otro modelo es Munix, un proyecto de software libre que ya tiene doce años de implementación en la Municipalidad de Rosario y que detalla en la columna de opinión de esta edición una de sus responsables, Mariela Borneman. Y la lista sigue.

Cuentas pendientes
Como venimos señalando en ediciones anteriores, la iniciativa de discutir una agenda digital para insertar a la Argentina en la sociedad de la información y el conocimiento fue impulsada por la secretaría de Gabinete y Gestión Pública encabezada por Juan Manuel Abal Medina y puesta en marcha operativamente por el subsecretario de Tecnologías de la Gestión, Nicolás Trotta y la directora de la ONTI, Elida Rodríguez, a través de un debate coordinado con las cámaras del sector privado, representantes de ONG vinculadas con la cuestión digital y funcionarios públicos. Aunque de acceso restringido, algunos pequeños retazos del debate asoman en el portal oficial de la Agenda Digital https://www.agendadigital.ar/, donde -además de algunos documentos interesantes para descargar- se han señalado las comisiones a cargo de los ejes centrales de la futura estrategia digital. Para tener alguna idea de cómo se desarrolla este proceso: Las comisiones han sido organizadas por temas y lideradas por algunos exponentes del sector público. Por Capital Humano, está Elida Rodríguez, Contenidos y Aplicaciones, Laura Serra del ministerio de Educación, Infraestructura y Conectividad, Gonzalo Heredia de la secretaría de Comunicaciones, Financiamiento y Sostenibilidad, Rosa Wachenchauzer del ministerio de Ciencia, Tecnología e Innovación Productiva y Marco Legal, Olga Cavalli, del ministerio de Relaciones Exteriores, Comercio Internacional y Culto. El resto de los ejes y el documento completo por ahora es una incógnita y habrá que esperar hasta el anuncio oficial.

Otra de las cuestiones que alimenta dudas –y malestar- es la manera de confeccionar las licitaciones en el Estado. Desde el sector privado la desazón hacia el gobierno de la ciudad de Buenos Aires por ver cómo las licitaciones de proyectos de gobierno electrónico dejan afuera a los proveedores locales es cada vez más evidente. Desde la otra vereda, la flamante CADESoL, Cámara de Empresas de Software Libre y que logró reunir a Openware, Gecoop, Opensa, Xtech, Raqlink, Menttes, Except y Entornos educativos, también se sostiene que las licitaciones públicas en general deberían funcionar de manera transparente y abarcativa. “Las licitaciones suelen estar armadas para contratar un producto, no soluciones”, opinó Daniel Coletti, quien presidirá la nueva CADESoL con el objetivo de servir de vínculo e intermediario ante el Estado, -en sus niveles nacional, provincial y municipal- y “ayudar a que entienda lo estratégico que es usar software libre y no propietario”. Similar es la visión de un directivo de uno de los gigantes multinacionales del Open Source que no integra la cámara –por ahora- y que destaca que “la actual administración tecnológica se basa en la neutralidad tecnológica” o lo que significa un “voto en blanco para no hacer nada y mientras tanto, el mundo sigue rodando”. O migrando, se podrá decir. Porque por algo la tendencia a nivel de las administraciones estatales en el mundo se inclina hacia el software libre.

El Estado no es una empresa. Acá, como en cualquier parte, la variable de ajuste siempre es el ciudadano. Y la opción por uno y otro sistema estatal que pueda garantizar un servicio seguro y confiable no parece ser un dato aislado. ¿O sí?

Read Full Post »

Fuente: puntogov

Francisco García Morán (*), de la Unión Europea

La interoperabilidad como objetivo
Es el titular de la Dirección General de Informática de la Comisión Europea y es uno de los funcionarios que mejor conoce la realidad del viejo continente en materia de gobierno digital. En su entrevista con PuntoGov habla de interoperabilidad, del consenso entre los distintos países y de las prioridades que han establecido.
-¿Cuál es su función en la comisión europea?
-Como responsable de un programa de Administración Electrónica a nivel de la Unión Europea (UE), crear el entorno necesario para que los países miembros de la Unión Europea sean capaces de hacer interoperar sus sistemas de información. No gestiono la informática de las otras instituciones de la UE, como el Parlamento o el Consejo ni tampoco la de los Estados, que son soberanos. Pero esto no significa que no haya coordinación. Presido el comité interinstitucional de todos los responsables de informática de las instituciones de la UE y decidimos hacer muchas cosas en común, como por ejemplo, intercambiar las mejores prácticas, adoptar las mismas tecnologías y compartir soluciones. También soy primus inter pares para la gestión de la informática interna de la comisión europea, que tiene 35000 funcionarios, con oficinas en Luxemburgo y Bruselas, centros de investigación y representaciones en los países miembros de la UE y más de 120 embajadas alrededor del mundo.

-¿Qué nivel de prioridad tiene el gobierno electrónico para la comisión?
-Las prioridades políticas son prioridades de muy alto nivel, como el crecimiento, el empleo o el medio ambiente. El gobierno electrónico es transversal. Puede contribuir a hacer mas eficaz la implantación de estas políticas. Hoy día cualquier legislación que se ponga en marcha tiene un componente de sistemas de información. Si queremos que el mercado interior se desarrolle en la UE, si queremos que la economía funcione a nivel europeo, si queremos resolver juntos los problemas del medio ambiente y del cambio climático, todas los sistemas de información nacionales y de las instituciones europeas deben interoperar para el beneficio de los ciudadanos, las empresas y la sociedad en general.

-Tal vez dando un ejemplo se entienda mejor la idea de gobierno electrónico transversal…
-Un ejemplo es la seguridad en las rutas. Como el tráfico de camiones ha aumentado en Europa originando numerosos accidentes, se fabricaron tacómetros con estándar europeo y tarjetas para los conductores. Esta tarjeta es expedida en el país de origen y aceptada por todos los Estados miembros pero también por los sistemas informáticos, que permiten intercambiar los datos a nivel europeo.

-¿Mejoró el tránsito con esta implementación?
-Gracias a esta cooperación, o lo que es lo mismo, gracias a la interoperabilidad entre los sistemas nacionales, se han hecho muchísimos controles, se han puesto las correspondientes sanciones y se han detectado y evitado numerosos fraudes. La consecuencia natural ha sido la disminución del riesgo de accidentes.

-¿Qué se necesita para tener un gobierno electrónico exitoso?
-Se necesita un marco que defina los principios que debieran dirigir la interoperabilidad de cualquier tipo de sistemas en cualquier tipo de área.

-Ustedes tienen un marco que funciona desde 2005…
-Sí. Nuestro marco de interoperabilidad fue definido junto con los países miembros. Surgió del programa IDABC, y fue una iniciativa fue muy interesante y bien acogida por los Estados miembros.

-¿Es obligatorio para todos?
-No, nadie obligó a nadie, fue posible gracias al consenso. Así es el funcionamiento normal en la UE. Se pensó para que no empezar cada uno por su cuenta y reinventara la rueda varias veces. La primera versión del marco europeo de interoperabilidad ha sido el documento más descargado de la web de IDABC y no solo desde Europa, sino desde todo el mundo. El marco fue una propuesta de principios.

-En la Argentina existe un marco de interoperabilidad desarrollado por el Foro de Responsables Informáticos. ¿Tiene alguna relación con lo que ustedes hicieron en la comisión?
-Lo conozco, ellos se han inspirado en nuestro trabajo y usan principios de base muy sólidos. Creo que sus objetivos están completamente en línea con lo que pensamos acerca de cómo hay que enfocar la interoperabilidad.

-Salvo la ANSES y AFIP, acá los organismos del Estado siguen funcionando desarticuladamente.
-La interoperabilidad es un trabajo permanente, y una carrera de resistencia. Siempre va a haber un elemento que no interopere, aunque se hayan establecido todas las condiciones. Nuestra forma de trabajar es siempre la misma. Desarrollar buenas ideas, convencer a cuantos mas organismos se pueda y cuando la masa crítica está ahí aquellos que están fuera tienden naturalmente a adoptarlo. Es lo que yo llamo el efecto “bola de nieve”.

-¿Por dónde se empieza?
-Conectando todos las partes involucradas, publicando los interfaces de los sistemas, usando protocolos abiertos, añadiendo capas de servicios de valor añadido de manera que la gente perciba que tienen un beneficio en el uso de la infraestructura. No hay que perder de vista que la interoperabilidad no es un objetivo en sí mismo sino un medio para proporcionar un mejor servicio a ciudadanos y más empresas y estos piden cada vez mas, mejor y a menor coste. La administración pública tiene que tener el mismo objetivo, de servicio. El ciudadano no puede sufrir la complejidad organizativa del Estado, y esto es una problemática en todo el mundo. Hay distintos niveles de interoperabilidad, legal, organizativa, semántica y técnica. De todas, la técnica es la más fácil. En términos de tecnología no existe impedimento para no interoperar. Si las empresas lo han conseguido para conseguir mejores servicios y mas beneficios, o simplemente para sobrevivir, ¿por qué la administración no lo podrá hacer? La construcción de la Unión Europea es un ejemplo de interoperabilidad. Finalmente los estados miembros, que hoy son 27, han sido capaces de hacer interoperar su legislación para tener una dimensión europea y así facilitar el ejercicio de las cuatro libertades reconocidas por los tratados: Libertad de circulación de personas, bienes, capitales y servicios permitiéndoles ejercer sus derechos y cumplir con sus deberes

-La dimensión técnica es la parte más sencilla. ¿Cuál es la más difícil?
-La interoperabilidad legal y organizativa. La barrera organizativa facilita los silos administrativos que seguramente tienen sistemas capaces de solucionar sus problemas pero si no se alinean los procesos, es muy difícil que tengan la capacidad de poder interoperar y así dar servicio de principio a fin a los ciudadanos. La interoperabilidad es un estado mental y un valor de la comunidad. El valor comunitario no es el beneficio de cada uno, sino de todos.

-¿Existe una relación directa entre el nivel del gobierno electrónico con el desarrollo de un país?
-Un informe encargado por la OCDE (Organización para la Cooperación y el Desarrollo Económico) del INSEAD, un prestigioso instituto de estudios francés, ha encontrado una clara correlación positiva entre el avance del gobierno electrónico y el desarrollo económico. En todos los estudios sobre administración electrónica en el mundo, los países escandinavos salen bastante bien parados. Estos países salen mejor de las crisis económicas. A mayor nivel de gobierno electrónico, se incrementa la competitividad y el crecimiento.

(*) Francisco García Morán es Director General de Informática de la Comisión Europea, una de las instituciones de la UE. Es también miembro del Consejo de Administración de ENISA, la Agencia Europea de Seguridad de Redes y Sistemas de Información y Presidente del Comité Interinstitucional de Informática de instituciones y agencias de la UE.

Read Full Post »

La informática necesita del aporte de otras áreas del conocimiento 385
Exportar Bases de Datos de Access (MDB) 350
Reportes con PHP 281
Nmap a fondo: Escaneo de redes y hosts 270
Humberto Maturana: La belleza de pensar 100
Software Libre para bibliotecas 93
El mejor software libre 2008 según Linux Journal 91
Sobre el desarrollo rápido de aplicaciones 89
Crear impresora virtual de PDF 86
Asterisk: The Future… libro de O’Reilly liberado 81
¿Quién programa las computadoras? 81
10 cosas que no sabes que podrias hacer en Ubuntu 80
Ten New Features that Make PostgreSQL 8.3 a must have 76
Definición sobre piratería 74
Si usas Gmail, ojo con esto 74
Manuales para instalar un servidor completo en Ubuntu 68
Creando organizaciones para el futuro 61
El gobierno alemán recomienda no utilizar Google Chrome 55
¡Quiero ser estándar! 52
Mapa conceptual para explicar el Software Libre 50

Read Full Post »

« Newer Posts - Older Posts »

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 100 seguidores