Windosw 7: Problemas de conexión con unidad de red en Window Server 2003

En ciertas ocasiones, cuando intentamos conectar nuestro Windows 7 con un unidad de red provista por un Windows Server 2003 nos encontramos con el problema de que es imposible acceder. Únicamente nos aparece la ventana pidiéndonos un usuario y contraseña de forma incesante. 


En muchos casos, y para liarnos un poco más, podemos comprobar que la conexión a dicha unidad de red desde una máquina con Windows XP o Linux se realiza de forma satisfactoria. En ese caso la solución dependerá de la versión de Windows 7 de la que disponga.

Windows 7 Professional

En la versión profesional de Windows 7 disponemos que una herramienta que nos permitirá, de forma sencilla, cambiar las directivas de seguridad a la hora de conectarnos a unidades remotas. Se trata de secpol.msc

Para acceder a dicha utilidad vamos a Inicio - Ejecutar y escribimos secpol.msc


Con esta utilidad, podemos realizar la configuración de seguridad de nuestro Windows. Una vez hayamos accedido, pinchamos en Directivas Locales - Opciones de seguridad. Dentro de sus opciones debemos buscar la directiva Seguridad de redes: nivel de autenticacion de LAN Manager.


Para editarla hacemos doble click sobre la misma y nos aparecerá una nueva ventana con las distintas opciones que se le pueden asignar.  Diversas fuentes recomiendan asignar el valor "Enviar LM y NTLM: usar la seguridad de sesion NTLMv2 si se negocia" aunque comparando esta misma clave con otro equipo con Windows XP se observa el uso de  "Enviar respuestas LM y NTLM". En nuestro caso nos decantamos por esta segunda opción (se han probado ambas y el funcionamiento es correcto).


Tras aplicar los cambios debemos reiniciar el equipo para que surtan efecto. Tras esto, y tras introducir las correspondientes claves de acceso, nos conectaremos sin problema a la unidad de red.

Windows 7 Home

En esta versión de Windows, la aplicación secpol.msc no se encuentra disponible, por lo que deberemos hacer los cambios directamente sobre el registro de Windows. Siempre que trabajamos con el mismo, es recomendable realizar una copia de seguridad del mismo.

Una vez hecho esto accedemos al registro mediante la utilidad regedit, donde debemos localizar la entrada HKLM|System|CurrentControlSet|Control|LSA


Si la clave LMCompatabilityLevel está presente, deberemos asignarle un valor de 1. En caso de que no se encuentre presente, la creamos como valor DWORD (32 bit) y le asignamos el valor 0x1 (1 hexadecimal),


Reiniciamos nuestro equipo y comprobamos que podamos acceder a la unidad de red.

Para finalizar, indicar que el valor indicado para la nueva clave no es aleatorio, sino que se corresponde con la siguiente tabla:

0 = Enviar respuestas de LM y NTLM 
1 = Utilizar respuestas NTLMv2 si se negocia 
2 = Enviar sólo respuesta NTLM 
3 = Enviar sólo respuesta NTLMv2 
4 = Enviar sólo respuesta NTLMv2. Rechazar LM 
5 = Enviar sólo respuesta NTLMv2. Rechazar LM y NTLM

Fuente: SevenForums

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Directorio Privado en Apache

Hace algunas entradas configuramos Apache en nuestro servidor. Mediante esta nueva entrada vamos a crear un directorio privado al que tendremos que acceder mediante un usuario y contraseña, configuradas en un fichero .htaccess


El primer paso será crear el directorio privado, en nuestro caso /opt/www/servidorWeb/Privado. Una vez creado ubicamos dentro del mismo el fichero de autorización .htaccess con el siguiente contenido:

AuthUserFile /directorio/.htpaccess
AuthName Hola
AuthType Basic
require valid-user

Tras esto debemos editar el fichero /etc/apache2/apache2.conf para indicar la dirección del directorio privado tal y como sigue:

#Cambiamos el directorio del que vamos a servir páginas
DocumentRoot /opt/www/servidorWEB

# Insertamos la configuración de nuestro directorio privado
<Directory "/opt/www/servidorWEB/Privado">
AllowOverride AuthConfig
Options None
Order allow,deny
Allow from all
</Directory>

Debemos cambiar además la configuración de los demás directorios en el fichero  /etc/apache2/sites-available/default

Pasando de:


DocumentRoot /opt/www/ficherosWEB
<Directory />
Options FollowSymLinks
AllowOverride none
</Directory>
<Directory /opt/www/ficherosWEB/>
Options Indexes FollowSymLinks MultiViews
AllowOverride None
Order allow,deny
allow from all
</Directory>

a

DocumentRoot /opt/www/servidorWEB
<Directory />
Options FollowSymLinks
AllowOverride all
</Directory>
<Directory /opt/www/ficherosWEB/>
Options Indexes FollowSymLinks MultiViews
AllowOverride all
Order allow,deny
allow from all
</Directory>

Tras los cual reiniciamos Apache y probamos que todo esta correcto.


  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Enmascarando y Securizando PhpMyAdmin

En ciertas ocasiones nos encontraremos con PhpMyAdmin instalado en la misma máquina que tenemos nuestro servidor web, lo que puede llegar a ser problemático. Con esta entrada vamos a ver como enmascarar el directorio, de modo que podamos dotar de una mayor seguridad ante ataques.

Un primer paso en la seguridad será el enmascarado de la dirección de acceso. Para ello debemos  acceder al fichero de configuración de phpmyadmin sito en /etc/apache2/conf.d/phpmyadmin.conf el cual es un enlace a /etc/phpmyadmin/apache.conf

En dicho fichero podemos encontrar la siguiente entrada:

Alias /phpmyadmin /usr/share/phpmyadmin


que deberemos cambiar por lo que sigue:

Alias /secreto /usr/share/phpmyadmin


Tras lo cual no podremos  acceder por la dirección tradicional sino a través de la nueva entrada secreta creada.


Esta es una medida inicial. Para limitar el acceso a sólo la intranet, debemos habilitar el firewall al puerto 3306 y crear un fichero .htaccess en el directorio de phpmyadmin (/usr/share/phpmyadmin). El contenido de dicho fichero debe ser el siguiente:

Order Deny, Allow
Deny from All
Allow from IP

donde IP es la dirección del equipo desde el que desea acceder.

Si queremos tener un acceso más seguro (usuario, contraseña) desde cualquier sitio deberemos hacer uso de la herramienta htpasswd de cara a crear un usuario y una contraseña de acceso a la página. El formato de uso de la herramienta es:


En nuestro caso debemos utilizar:

$ sudo htpasswd -cb /directorioDestino/.hptasswd usuario


Nota: es recomendable no ubicar el fichero de contraseñas en ninguna carpeta accesible desde Apache.

Una vez que tenemos el usuario y la contraseña creada, debemos editar el fichero /etc/apache2/conf.d/phpmyadmin.conf (el mismo donde hicimos el enmascaramiento de la dirección de acceso a phpmyadmin) para indicarle el nuevo modo de autenticación en el apartado correspondiente al directorio.

Inicialmente contiene:

<Directory /usr/share/phpmyadmin>
Options FollowSymLinks
DirectoryIndex index.php

<IfModule mod_php5.c>
AddType application/x-httpd-php .php

php_flag magic_quotes_gpc Off
php_flag track_vars On
php_flag register_globals Off
php_admin_flag allow_url_fopen Off
php_value include_path .
php_admin_value upload_tmp_dir /var/lib/phpmyadmin/tmp
php_admin_value open_basedir /usr/share/phpmyadmin/:/etc/phpmyadmin/:/var/lib/phpmyadmin/
</IfModule>
</Directory>

 Tras los cambios debe quedar como sigue:


<Directory /usr/share/phpmyadmin>
Options Indexes FollowSymLinks
DirectoryIndex index.php
AllowOverride All

RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI}

AuthUserFile /home/administrador/apacheaccess/.htpasswd
AuthName Hello
AuthType Basic
require valid-user

<IfModule mod_php5.c>
AddType application/x-httpd-php .php

php_flag magic_quotes_gpc Off
php_flag track_vars On
php_flag register_globals Off
php_admin_flag allow_url_fopen Off
php_value include_path .
php_admin_value upload_tmp_dir /var/lib/phpmyadmin/tmp
php_admin_value open_basedir /usr/share/phpmyadmin/:/etc/phpmyadmin/:/var/lib/phpmyadmin/
</IfModule>
</Directory>


Mediante:

AuthUserFile /home/administrador/apacheaccess/.htpasswd
AuthName Hello
AuthType Basic
require valid-user

indicamos que necesita autenticarse un usario válido del fichero de claves indicado. En caso de que sólo demos acceso a alguno de los usuarios indicados en dicho fichero,por ejemplo gonpuga, deberemos cambiar la última línea por:

require user usuario

Con:

RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI}

Una vez identificado correctamente el usuario, seremos redireccionados a la página de phpmyadmin en modo seguro (https).

Tras esto ya sólo nos queda reiniciar el servidor Apache:

$ sudo /etc/init.d/apache2 restart


y probar que todo funciona correctamente.

Si lo hacemos vemos que nos aparece el siguiente error:



Para solventarlo, debemos activar el mod_rewrite en apache, desactivado por defecto en la versión 2 para ubuntu. Para ello debemos usar:

$ sudo a2enmod rewrite

Además de esto, los directorios debemos cambiar la configuración a AllowOverride all en lugar de none

Tras lo cual nos queda únicamente recargar Apache y probar el funcionamiento del mismo


Fuente: ScottLinux

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Instalación y configuración de Apache 2

Mediante esta entrada vamos a ensañar a instalar y configurar ciertos aspectos de Apache 2 sobre Ubuntu.

La instalación de Apache se puede realizar de forma independiente o bien haciendo uso de XAMPP para Linux, anteriormente conocido como LAMPP.

Dado que de momento sólo vamos a necesitar Apache, lo vamos a instalar de modo independiente. Si desea información de como hacerlo mediante XAMPP puede verlo aquí.

La instalación de Apache 2 se realiza del siguiente modo:

sudo apt-get install apache2

Tras esto podemos comprobar que funciona de modo adecuado introduciendo la dirección localhost en nuestro navegador.


Una vez comprobado que Apache funciona sin ningún tipo de problema podemos pasar a configurar ciertos aspectos del mismo. Para ello necesitamos saber que el fichero de configuración de Apache se encuentra ubicado en /etc/apache2/apache2.conf Para evitar problemas le crearemos una copia de seguridad antes de llevar a cabo ningún tipo de cambio sobre el mismo.

Si queremos acceder al mismo a través de un nombre, por ejemplo www.miservidor.com (desde nuestra red interna) debemos añadir la siguiente línea en el fichero de configuración de Apache:

ServerName www.miservidor.com

Además debemos editar el fichero /etc/hosts para poder acceder al mismo a través del nombre añadiendo la siguiente línea:

127.0.0.1     www.miservidor.com

Por defecto Apache sirve las páginas ubicadas en el directorio /var/www. Este aspecto también se puede cambiar mediante los ficheros de configuración oportunos. Nosotros vamos a publicar las páginas ubicadas en el directorio /opt/www.

El primer paso es crear dicha estructura de directorios y dotarla de los permisos pertinentes. Igualmente haremos copia de seguridad al fichero /etc/apache2/sites-available/default que es donde debemos indicar la ubicación del directorio a servir en el apartado DocumentRoot, por defecto /var/www.

La configuración inicial del mismo es:

DocumentRoot /var/www 
<Directory />
Options FollowSymLinks
AllowOverride None
</Directory>
<Directory /var/www/>
Options Indexes FollowSymLinks MultiViews
AllowOverride None
Order allow,deny
allow from all
</Directory>

Y se debe cambiar por:

DocumentRoot /opt/www 
<Directory />
Options FollowSymLinks
AllowOverride None
</Directory>
<Directory /opt/www>
Options Indexes FollowSymLinks MultiViews
AllowOverride None
Order allow,deny
allow from all
</Directory>

Creamos dentro de dicho directorio un fichero llamado index.html, reiniciamos el servidor web Apache mediante

sudo /etc/init.d/apache2 restart

y probamos su correcto funcionamiento.

Para acabar con este apartado de instalación y configuración de Apache, vamos a ver como cambiar la página por defecto a servir. Normalmente los servidores vienen definidos para hacer uso de la página index.html o index.php, en un orden determinado.

Este comportamiento se puede modificar en el fichero /etc/apache2/sites-available/default mediante la orden RedirectMatch:

<Directory /opt/www>
Options Indexes FollowSymLinks MultiViews
AllowOverride None
Order allow,deny
allow from all
#Redireccionamos a la nueva página por defecto RedirectMatch ^/$ /nuevaPagina.html
</Directory>

Reiniciamos el servidor Apache y listo.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Red Extendida (ESS)

En una entrada anterior vimos como ampliar nuestra cobertura wifi haciendo uso de un puente. Esa solución es interesante si es imposible realizar un cableado entre los distintos puntos de acceso. Si por el contrario tenemos la opción de cablear una red y queremos además dotar de puntos de acceso inalámbricos (por ejemplo un edificio grande o cuya estructura hace que la cobertura de un único punto de acceso sea insuficiente) debemos usar una red extendida ESS.

Una red extendida ESS (Extended Service Set) es un conjunto de puntos de acceso que están conectados entre sí a través de una red Ethernet para formar una única red. De esta forma el usuario puede cambiar de forma automática entre los diferentes puntos de acceso sin perder la conexión a Internet.


Para que los puntos de acceso puedan trabajar de forma conjunta sin crear interferencias cada uno de ellos debe trabajar en un canal diferente. Además, todos los puntos de acceso deben tener el mismo nombre y la misma configuración de seguridad.

Como cada canal se corresponde con una determinada frecuencia, y a canales consecutivos las frecuencias son también consecutivas, una buena forma de establecer los canales de los puntos de acceso de la red es utilizar canales separados.

Para establecer los canales de una red inalámbrica extensa es recomendable utilizar los canales extremos y central (1, 6 y 11).



Otro aspecto a tener en cuenta es que si estamos utilizando DHCP, debemos otorgar un rango de direcciones distinto a cada uno de los puntos de acceso, para evitar problemas con el duplicado de direcciones.

Fuente: Guía de campo wifi

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Programación Shell

Recientemente nos han recomendado un libro de programación Shell. Se trata de Programación Shell. Aprende a programar con más de 200 ejercicios resueltos, de Julio Gómez y Gonzalo Puga.

Estamos ante un libro muy interesante para todos aquellos que nos movemos en el entorno Linux y que nos gusta programar (en este caso en Bash), ya que abarca un amplio rango de conocimiento, comenzando desde cero y todo basándose en ejercicios de indudable aplicación práctica, que lo convierten en manual de referencia, dotándonos a la vez una librería de aplicaciones listas para su uso, gracias a la web que apoya al mismo.

Y no hablamos únicamente de aplicaciones básicas, ya que los capítulos dedicados a la programación de tareas y la Administración del sistema ofrece soluciones interesantes para los que trabajamos en entornos un poco más avanzados. 

Desde nuestra modesta opinión, estamos ante un libro altamente recomendable, sobre todo conociendo el poco material de calidad que se puede encontrar (si lo hubiésemos tenido en nuestra época de estudiantes todo habría sido un poco más fácil).


  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Linksys WRT54GL con DD-WRT (v24) como repetidor

Nuestro objetivo es utilizar un Linksys WRT54GL con firmware DD-WRT (v24) como repetidor de señal, de modo que podamos ampliar la zona de cobertura de nuestra señal wireless con un SSID propio.

A continuación puede ver un esquema aproximado de la topología a montar:


Para poder llevar a cabo nuestro cometido debemos cumplir una serie de requisitos:
  • Tener el router original configurado como punto de acceso AP (Access Point) y con DHCP Server activado.
  • Conocer el modo wireless (B, G, N) del router original.
  • Conocer la clave WEP o WPA del router original.
  • El router secundario corriendo DD-WRT v24 e configurará como Repetidor Puente o Repeater Bridge.

Paso 1: restaurar valores.

Para evitar problemas, lo primero que haremos será restaurar los valores de fábrica en el router secundario y posteriormente hacerle un hard reset para asegurarnos de que partimos desde un punto inicial controlado.

Paso 2: Configuración básica inalámbrica y virtual interfaces.

Accedemos a nuestro router secundario para llevar a cabo la configuración inalámbrica básica y crear las interfaces virtuales necesarias. Para ello, accedemos a Wireless -> Basic Settings/Inalámbrico -> Config Básica

  • En la sección Wireless Physical Interface:
    • Wireless Mode/Modo Inalámbrico : Repeater Bridge.
    • Wireless Network Mode/Modo de Red Wi-Fi : debe ser igual al router primario.
    • Wireless Network Name (SSID)/Nombre de Red Wi-Fi (SSID) : debe ser igual al router primario - Asegúrese de que lo escribe de manera correcta.
    • Wireless Channel/Canal Inalámbrico : debe ser igual al router primario (Esto desaparecerá una vez que lo pone en modo de Repeater Bridge, y no se necesita).
    • Wireless SSID Broadcast/Broadcast SSID Inalámbrico : Enable
    • Network Configuration : Bridged
    • Save/Grabar Config


  • En la sección Virtual Interfaces:
    • Add/Añadir
    • Wireless Network Name (SSID)/Nombre de Red Wi-Fi (SSID) : Diferente a la del router primario.
      • [NOTA] - Puede probar utilizar el mismo SSID, pero muchos han tenido desconexión al azar y/o no conexión si los SSID son los mismos. Si se utiliza el mismo SSID y no funciona, utilice un SSID distinto al del router primario.
    • Wireless SSID Broadcast/Broadcast SSID Inalámbrico : Enable.
    • AP Isolation/Aislamiento AP : Disable/Desactivado.
    • Network Configuration : Bridged
    • Save/Grabar Config.


Paso 3: Seguridad Inalámbrica.

Este es un apartado fundamental sino queremos ser unos buenos samaritanos que facilitemos conexión a todo aquel que pase cerca de nuestras redes. Por ello debemos olvidar el modo WEP.

Para poder configurar este apartado accedemos a Wireless -> Wireless Security/Inalámbrico -> Seguridad Inalámbrica
  • En la sección Physical Interface:
    • Security Mode : debe ser igual al router primario.
    • WPA Algorithms/Algoritmos WPA: debe ser igual al router primario
    • WPA Shared Key/Clave Compartida WPA: debe ser igual al router primario.
    • Key Renewal Interval (in seconds) : deje el por defecto.
  • En la sección Virtual Interfaces (Nota: Si no ve esta sección debe actualizar el firmware a v24-SP1 o posterior)
    • Security Mode : debe ser igual a Physical Interface.
    • WPA Algorithms/Algoritmos WPA : debe ser igual a Physical Interface.
    • WPA Shared Key/Clave Compartida WPA : debe ser igual a Physical Interface.
    • Key Renewal Interval (in seconds) : deje el por defecto.
  • Save/Grabar Config.


Paso 4: Configuración básica.

En este apartado vamos a indicar la dirección IP e identificador del router secundario. Para ello accedemos a Setup -> Basic Setup
  • WAN Connection Type/Tipo de Conexión : Disabled/Desactivar.
  • STP: Disabled/Desactivar (Enable algunas veces puede causar problemas de conexión) .
  • Local IP Address/IP Local (LAN) : 192.168.149 (asumiendo que la IP del router primario es 192.168.1.1)
  • Subnet Mask/Máscara Subred : 255.255.255.0
  • Gateway/Puerta de Enlace: 192.168.1.1 (asumiendo también que la IP del router primario es 192.168.1.1).
  • DHCP Server/Servidor DHCP: Disable/Desactivar
  • Local DNS: 192.168.1.1 (si la IP del router primario es 192.168.1.1)
  • Assign WAN Port to Switch/Assigar Puerto WAN Port a cambiar : Opcionalmente marque esto para usar el puerto WAN como otro puerto LAN.
  • Save/Grabar Config.


Paso 5: Ruteo avanzado.

Para un correcto funcionamiento debemos indicar que nuestro router secundario trabaja en modo router. Para ello accedemos a Setup -> Advanced Routing/Setup -> Ruteo Avanzado
  • Change operating mode to/Modo de Operación : Router
  • Save/Grabar Config.


Paso 6: Deshabilitar dnsmasq.

Para ello abrimos la pestaña Services -> Services
  • DNSMasq : Disable/Desactivar
  • Save/Grabar Config.


Paso 7: Configuración del firewall.

Abrimos la pestaña Security -> Firewall
  • Desmarcamos todas las casillas excepto Filter Multicast/Filtrado Multicast
  • Apply Settings/Aplicar


Paso 8: Reiniciar el router y probar.

Una vez hecho todo lo anterior reiniciamos el router, tras lo cual deberíamos ser capaces de conectar nuestros equipos por cable e inalámbricos a la nueva configuración router secundaria. Ellos recibirán las direcciones IP del router primario y podrán utilizar la conexión a Internet proporcionada por el router primario. Esto lo podemos comprobar accediento al estado de la red inalámbrica, para ver los equipos conectados a la misma.



Asimismo, debe tener en cuenta el hecho de que todos los repetidores, incluyendo este modo Repetidor Puente, sacrificará la mitad del ancho de banda disponible en el router primario para los clientes conectados inalámbricamente al repetidor. Este es el resultado de la toma de repetición se vuelve a hablar no sólo a uno de los socios, sino a dos, y tener que retransmitir el tráfico entre ellos. Siempre y cuando su ancho de banda de Internet se encuentran dentro de esta cantidad de ancho de banda reducido a la mitad habrá poca o ninguna reducción de la "velocidad".

Pasos Adicionales.

Una vez comprobado que todo funciona de modo satisfactorio, es conveniente llevar a cabo una copia de seguridad de la configuración actual, para evitar problemas futuros. Para ello accedenos a Administration -> Backup y pulsamos en Backup.


En algunos foros se recomienda, que dado que nuestro router secundario dispone de 2 antenas, podemos utilizar una de ellas sólo para recibir y otra para enviar, de modo que se mejora la eficiencia. Asimismo, si la intensidad de la señal no es muy alta, podemos aumentar la potencia del receptor y emisor accediendo a wireless -> advanced wireless  settings -> xmit power (por defecto 71).


Fuentes: DD-WRT y k5's blog

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Puente Repetidor

En muchas ocasiones, necesitamos extender la cobertura de nuestra red inalámbrica para dar acceso a todas las máquinas de las que disponemos, por ejemplo, en un edificio de varias plantas o bien en edificios separados por poca distancia.

Hay varios modos de hacer esto, y los iremos viendo en entradas sucesivas. Pero antes, debemos conocer lo que hace un puente inalámbrico.

Un puente inalámbrico conecta dos segmentos de LAN con un enlace inalámbrico. Los dos segmentos están en la misma subred y parecen dos switches ethernet conectados por un cable a todos los equipos de la subred. Dado que los equipos están en la misma subred, las comunicaciones llegan a todas las máquinas. Los clientes DHCP en un segmento pueden obtener sus direcciones de un servidor DHCP en el otro segmento.

Un puente repetidor (Repeater Bridge) extiende su LAN primaria a través de su router secundario (router puente) y también permite a los clientes inalámbricos conectarse a su router secundario. Esto amplía el alcance de su red inalámbrica al mismo tiempo que permite a los clientes por cable conectarse al router secundario.

A continuación puede ver un pequeño esquema:


Fuente: dd-wrt

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Virtualización con Ubuntu 11.10 y KVM (V-W7 virtualizado)

Como último paso en nuestra serie de 5 entradas sobre virtualización mediante KVM queda la instalación y puesta en funcionamiento de una máquina virtual. Nosotros nos hemos decantado por un Windows 7 de 64 bits.

Accedemos a virt-manager y creamos una máquina virtual, indicando indicando el nombre de la misma y el origen de la misma:


En el siguiente paso debemos indicar la ubicación en nuestro sistema de la unidad de CD (elegida en paso anterior como origen del software) así como indicar el tipo de sistema operativo y versión que vamos a instalar.


A la hora de elegir las características de la máquina virtual (memoria, disco duro, procesador) debemos tener en cuenta los requisitos mínimos del mismo, así como las características del equipo anfitrión. Una vez conocidos, indicamos el tamaño de RAM y el número de procesadores.


Creamos una imagen de disco duro y asignamos el espacio del mismo en este momento.


Para acabar con los parámetros de configuración seleccionamos la configuración de la red, indicando como interfaz nuestro bridge, creado en pasos anteriores.



Tras esto pulsamos en finalizar y comenzamos la instalación como si de un equipo normal se tratase.



  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Virtualización con Ubuntu 11.10 y KVM (IV-VirtManager)


A la hora de crear máquinas virtuales existen dos procedimientos diferenciados:

  • Hacerlos en modo texto a través de la consola.
  • Hacerlos en un entorno gráfico.


Nosotros nos vamos a decantar por el segundo método (evidentemente nuestro servidor debe tener un entorno X operativo) por la sencillez y rapidez, ya que el procedimiento se asimila a la creación de máquinas virtuales en entornos como VirtualBox o VMWare.

El primer paso es la instalación de virt-install, el cual permite la creación de máquinas virtuales para KVM (o XEN) de forma sencilla, ya sea a través de un asistente desde la línea de comandos o del paso de parámetros con las distintas opciones al comando. El comando utiliza la librería libvirt.

A través de esta herramienta, podemos realizar tanto instalaciones en modo texto como gráficas, y las imagenes del sistema operativo pueden ser cargadas desde FTP, HTTP, NFS o local. Para instalarlo debemos utilizar:

$ sudo apt-get install virtinst

Tras esto debemos instalar un componente de gestión gráfica, como virt-manager o virt-viewer. Nosotros recomendamos el uso de virt-manager, el cual es capaz de gestionar maquinas virtuales KVM QUEMU, XEN y varias más. Mediante su uso puede, entre otras cosas, crear y eliminar máquinas virtuales. 

Para instalarlo debe utilizar:


$ sudo apt-get install virt-manager

 Tras esto podremos acceder al gestor gráfico de máquinas virtuales.



Antes de comenzar a crear las máquinas virtuales vamos a llevar a cabo una serie de pasos previos.

Primero, necesitamos utilizar un directorio para almacenar las máquinas virtuales al cual se tenga acceso por parte de los gestores gráficos. En nuestro caso nos decantamos por /var/lib/libvirt/images/ que se crea de modo automático con la instalación de la biblioteca libvirt. Se puede elegir otro, pero se debe comprobar que se tengan los permisos necesarios sobre el mismo.

En la instalación del entorno de virtualización creamos un bridge para poder conectarnos a las máquinas virtuales desde nuestra red física. Para que libvirt pueda hacer uso de un modo sencillo de esta interfaz de red debemos crear un fichero /etc/libvirt/qemu/networks/RedLAN.xml con en contenido similar al siguiente:

<network type=’bridge’>
<name>RedLAN</name>
<mac address=’1c:c1:de:9c:d6:3a’/>
<uuid>12d4176d-8c56-347e-cc52-1cc1de9cd63a</uuid>
<bridge name=’br0′ stp=’on’ delay=’0′ />
</network>


Para que los cambios surtan efecto debemos reiniciar la máquina.

Otra de las cosas que no te va a dejar hacer el Gestor de máquinas virtuales, es cambiar la red a la que está conectada una determinada máquina virtual. Se puede hacer cambiando el fichero /etc/libvirt/qemu/NOMBREMAQUINA.xml, donde dice:

<interface type=’network’>
<source network=default/>


Cambiamos el default por RedLAN. Una vez hecho esto es necesario reiniciar el servicio de virtualización para que vuelva a leer los ficheros xml con la configuración de las distintas máquinas mediante:


$ sudo service libvirt-bin reload


Recuerde que cuando comiences a ejecutar máquinas, podrás ver cuantas máquinas está conectadas a cada interface con el comando brctl show.
En la configuración por defecto br0 será la red que hemos llamado RedLAN y virbr0 será la red por defecto (generalmente configurada con reenvío NAT contra la red anterior).


Fuente: Ubanov

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Virtualización con Ubuntu 11.10 y KVM (III-Instalación)

Una vez realizadas todas las comprobaciones iniciales, comenzamos la instalación. Hay que tener en cuenta que en la instalación del sistema operativo, se nos ofrece la posibilidad de instalar diversos servicios, entre los cuales se encuentra el paquete de virtualización (Virtual Machine Host). Esto se puede realizar mediante el comando:

$ sudo tasksel

Dicho comando nos abre un menú en el que podremos elegir distintos elementos a instalar, entre ellos el paquete de virtualización:


Otra alternativa sería invocar la instalación de un elemento concreto, en nuestro caso:


$ sudo tasksel install virt-host

El problema que presenta esto es la posibilidad de que no se instalen todos los paquetes necesarios ya que se instala un grupo predefinido de paquetes, por lo que deberemos completar la instalación de modo manual.

Para evitar lo anterior, se puede hacer una instalación de todos los elementos de forma manual mediante:

$ sudo apt-get install ubuntu-virt-server python-vm-builder kvm-pxe

Nota: vmbuilder es un script que nos permite crear máquinas virtuales basadas en Ubuntu.


 El siguiente paso es añadir el usuario activo (root) al grupo libvirtd:

$ sudo adduser `id -un` libvirtd
$ sudo adduser `id -un` kvm


Para que estos cambios surtan efecto es necesario salir de la sesión y volver a entrar, tras lo cual podremos comprobar que la instalación ha sido correcta mediante:

$ sudo virsh -c qemu:///system list

debiendo aparecer algo parecido a lo siguiente:



El siguiente paso es la instalación y configuración de un network bridge en nuestro servidor, de cara a permitir que nuestras máquinas virtuales puedan ser accedidas desde otras máquinas de nuestra red física. Para ello deberemos instalar el paquete bridge-utils:

$ sudo apt-get install bridge-utils


y una vez instalado deberemos configurar el puente en el fichero /etc/network/interfaces. La configuración inicial de dicho fichero será similar a la siguiente:

# The loopback network interface
auto lo
iface lo inet loopback

# The primary network interface
auto eth0
iface eth0 inet static
          address 192.168.1.10
          netmask 255.255.255.0
          network 192.168.1.0
          broadcast 192.168.1.255
          gateway 192.168.1.1

Y hay que cambiarlo para que quede como sigue (siempre de acuerdo a su configuración de red):


# The loopback network interface
auto lo
iface lo inet loopback

# The primary network interface
auto eth0
iface eth0 inet manual

# bridge
auto br0
iface br0 inet static
          address 192.168.1.10
          netmask 255.255.255.0
          network 192.168.1.0
          broadcast 192.168.1.255
          gateway 192.168.1.1
          bridge_ports eth0
          bridge_fd 9
          bridge_hello 2
          bridge_maxage 12
          brige_stp off

El siguiente paso es reiniciar la red mediante el comando:

$ sudo /etc/init.d/networking restart



De este modo habremos creado un nuevo interface (br0) que estará compuesto por el interface físico eth0.Ejecutamos ifconfig para ver la configuración del mismo:

administrador@ubuntuServer:~$ ifconfig
br0 Link encap:Ethernet direcciónHW 6c:f0:49:5e:58:4c
      Direc. inet:192.168.1.10 Difus.:192.168.1.255 Másc:255.255.255.0
      Dirección inet6: fe80::6ef0:49ff:fe5e:584c/64 Alcance:Enlace
      ACTIVO DIFUSIÓN FUNCIONANDO MULTICAST MTU:1500 Métrica:1
      Paquetes RX:355 errores:0 perdidos:12 overruns:0 frame:0
      Paquetes TX:113 errores:0 perdidos:0 overruns:0 carrier:0
      colisiones:0 long.colaTX:0
      Bytes RX:30864 (30.8 KB) TX bytes:20007 (20.0 KB)

eth0 Link encap:Ethernet direcciónHW 6c:f0:49:5e:58:4c
      ACTIVO DIFUSIÓN FUNCIONANDO MULTICAST MTU:1500 Métrica:1
      Paquetes RX:618740 errores:0 perdidos:45277 overruns:0 frame:0
      Paquetes TX:155936 errores:0 perdidos:0 overruns:0 carrier:1
      colisiones:0 long.colaTX:1000
      Bytes RX:364332840 (364.3 MB) TX bytes:12839218 (12.8 MB)
      Interrupción:44

lo Link encap:Bucle local
      Direc. inet:127.0.0.1 Másc:255.0.0.0
      Dirección inet6: ::1/128 Alcance:Anfitrión
      ACTIVO BUCLE FUNCIONANDO MTU:16436 Métrica:1
      Paquetes RX:228 errores:0 perdidos:0 overruns:0 frame:0
      Paquetes TX:228 errores:0 perdidos:0 overruns:0 carrier:0
      colisiones:0 long.colaTX:0
      Bytes RX:39814 (39.8 KB) TX bytes:39814 (39.8 KB) 

Con el comando brctl show se pueden revisar los interfaces creados y los interfaces físicos que los forman.

administrador@ubuntuServer:~$ brctl show
bridge name bridge id STP enabled interfaces
br0 8000.6cf0495e584c no eth0
administrador@ubuntuServer:~$

Para acabar, y antes de crear nuestra primera máquina virtual es recomendable reiniciar el equipo anfitrión.

Fuente: HowToForge

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Virtualización con Ubuntu 11.10 y KVM (II-Requisitos Previos)

Para proceder a la instalación de KVM en un sistema Ubuntu es necesario contar con el soporte hardware en el procesado del servidor. Para poder verificar el soporte hardware a la tecnología de virtualización debemos hacer uso de la siguiente orden:


$ egrep '(vmx|svm)' –color=always /proc/cpuinfo

En nuestro caso obtenemos el siguiente resultado:

/proc/cpuinfo:flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm xsave lahf_lm dts tpr_shadow vnmi flexpriority

Como se observa arriba en tenemos soporte hardware para la virtualización en nuestro procesador Intel.

Para poder llevar a cabo la virtualización de sistemas de 64 bits, el procesador de la máquina física también deberá ser de 64 bits. Esto se puede verificar mediante el siguiente comando:

$ grep ' lm ' /proc/cpuinfo

Lo que obtiene:

flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm xsave lahf_lm dts tpr_shadow vnmi flexpriority

Tal y como se observa, nuestro procesador es de 64 bits, al tener activado el bit long mode.

Para finalizar con las comprobaciones previas deberemos verificar si el servidor ya cuenta con un kernel de 64 bits mediante el comando: 

$ uname -m


 Si la respuesta es x86_64 el servidor está utilizando un kernel de 64 bits, si por el contrario obtiene una respuesta como i686 se encuentra utilizando un kernel de 32 bits.

Fuente: HowToForge

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Virtualización con Ubuntu 11.10 y KVM (I-Teoría)

Virtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.

Básicamente podemos considerar 3 tipos de virtualización: emulación, virtualización completa (Full Virtualization) y paravirtualización:

  • Emulación: La emulación se basa en crear máquinas virtuales que emulan el hardware de una o varias plataformas hardware distintas. Este tipo de virtualización es la más costosa y la menos eficiente, ya que obliga a simular completamente el comportamiento de la plataforma hardware a emular e implica también que cada instrucción que se ejecute en estas plataformas sea traducida al hardware real.

    Sin embargo la emulación tiene características interesantes, como poder ejecutar un sistema operativo diseñado para una plataforma concreta sobre otra plataforma, sin tener que modificarlo, o en el desarrollo de firmware para dispositivos hardware, donde se pueden comenzar estos desarrollos sin tener que esperar a tener disponible el hardware real.

  • Virtualización completa: Con este término se denominan aquellas soluciones que permiten ejecutar sistemas operativos huesped (Guest), sin tener que modificarlos, sobre un sistema anfitrión (Host), utilizando en medio un Hypervisor o Virtual Machine Monitor que permite compartir el hardware real. Esta capa intermedia es la encargada de monitorizar los sistemas huesped con el fin de capturar determinadas instrucciones protegidas de acceso al hardware, que no pueden realizar de forma nativa al no tener acceso directo a él.

    Su principal ventaja es que los sistemas operativos pueden ejecutarse sin ninguna modificación sobre la plataforma, aunque como inconveniente frente a la emulación, el sistema operativo debe estar soportado en la arquitectura virtualizada.

    En lo que respecta al rendimiento, éste es significativamente mayor que en la emulación, pero menor que en una plataforma nativa, debido a la monitorización y la mediación del hypervisor. Sin embargo, recientes incorporaciones técnicas en las plataformas x86 hechas por Intel y AMD, como son Intel VT y AMD-V, han permitido que soluciones basadas en la virtualización completa se acerquen prácticamente al rendimiento nativo.

    Un par de ejemplos significativos son VMware y KVM.

  • Paravirtualización: La paravirtualización surgió como una forma de mejorar la eficiencia de las máquinas virtuales y acercarlo al rendimiento nativo. Para ello se basa en que los sistemas virtualizados (huesped) deben estar basados en sistemas operativos especialmente modificados para ejecutarse sobre un Hypervisor. De esta forma no es necesario que éste monitorice todas las instrucciones, sino que los sistemas operativos huesped y anfitrión colaboran en la tarea.

    Uno de los componentes más destacados de esta familia es XEN, el cual permite paravirtualización utilizando sistemas operativos modificados, y virtualización completa sobre procesadores con tecnología Intel-VT o AMD-V. Para la gestión de las máquinas virtuales existen aplicaciones propietarias e incluso alguna open-source como ConVirt, que permite gestionar también desde un único sitio las máquinas virtuales de diferentes servidores, realizar tareas sobre ellas, o modificar sus configuraciones.

Cabría destacar otro tipo de productos para virtualizar que son aplicaciones de escritorio para virtualizar (OS level Virtualization), como Vmware-player y VirtualBox. Estos tipos de virtualización están muy bien para virtualizar Sistemas Operativos en nuestro escritorio y hacer pruebas puntuales pero no para estar siempre ejecutándose. Ya que son programas que requieren tener las X (Desktop), comparten los recursos del Host y no están indicados para ser ejecutados con un servicio o demonio del sistema en un servidor y su rendimiento es menor.

Características de KVM

Como se ha explicado en uno de los puntos anteriores, KVM es uno de los productos que ofrece virtualización completa, permitiendo a priori ejecutar, como huesped, cualquier sistema operativo sin tener que haberlo modificado previamente. Para ello se basa en las nuevas instrucciones Intel-VT y AMD-V, por lo que será necesario disponer de un equipo con un procesador que las soporte para poder utilizarlo.

La principal ventaja es que viene incluido como un módulo del kernel desde la versión 2.6.20 de Linux, por lo que no es necesario instalar ningún software específico. Si se dispone de una máquina con el procesador adecuado y se instala un linux basado en este kernel, se dispondrán automáticamente de los servicios de virtualización. 

El funcionamiento de KVM se basa en que el módulo introduce un nuevo modo de ejecución aparte de los habituales kernel y user mode, con el nombre “guest mode”. Este modo se utiliza para ejecutar todo el código de los huesped que no sea de entrada/salida (I/O), mientras que el modo “user mode” se utiliza para la I/O de los huesped.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Solventar Problemas de Velocidad de Wifi en Ubuntu

Algunos de vosotros habrá notado (o padecido) los problemas de velocidad de la WIFI en versiones de Ubuntu posteriores a 10.10. Esto se debe a la Configuración de Energía de las nuevas versiones de Ubuntu que afecta sobremedida a la tarjeta inalámbrica.

En la red existen diversos modos de solucionarlos, pero el que nos ha funcionado a nosotros es el siguiente, pero para poder cuantificar la mejora primero lanzamos un test de velocidad. En nuestro caso nos decantamos por el de speednet.


Nos ofrece una velocidad de 1 Mb, cuando nuestra línea es de 6 Mb.

Seguidamente ejecutamos en la consola los siguientes comandos, uno a uno (no temáis, estos cambios no son permanentes).

$ sudo ifconfig wlan0 down
$ sudo rmmod -f ath9k
$ sudo modprobe ath9k nohwcrypt=1
$ sudo ifconfig wlan0 up

Una vez hecho esto comprobamos si hemos solventado los problemas de velocidad.


Como vemos la mejora de velocidad es considerable. Podemos incluso usar una conexión cableada y verificar la calidad del resultado.


Como se puede observar, los resultados concuerdan. Ante esto, podemos hacer permanentes los cambios para lo cual se debe ejecutar:

gksudo gedit /etc/modprobe.d/ath9k.conf

y en ese fichero añadir la siguiente línea:

options ath9k nohwcrypt=1

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Instalar Lector de DNIe en Ubuntu

Hasta hace poco tiempo se han tenido bastantes problemas a la hora de instalar nuestro lector de DNIe, ya que el proceso era muy lioso y muchas veces desanimaba incluso el realizar su instalación.

Esto ya es cosa del pasado, ya que los chicos de INTECO ha publicado una herramienta multiplaforma que facilita enormemente la configuración del DNIe. El programa instala un driver genérico y configura todo lo necesario para que puedas utilizar el DNIe tanto en Linux como en Windows en cualquiera de sus versiones.

Por lo tanto, para proceder a la instalación del lector nos descargamos la herramienta y le asignamos permisos de ejecución, bien desde la interfaz gráfica o bien desde la consola mediante el comando:

$ chmod 777 instalador-dni

A continuación ejecutamos el archivo clickando sobre él y se nos lanzará la interfaz gráfica, la cual nos nos pedirá permisos de superusuario (root) para ejecutarse.

Lo primero que comprobará el instalador es si existen actualizaciones del asistente y tras unos breves instantes se lanzará la interfaz gráfica del asistente:


Tras aceptar la licencia de instalación nos pedirá que conectemos nuestro lector de DNie:



y comenzara la instalación, la cual es completamente automática. Tras instalar el lector nos pedirá que insertemos nuestro DNIe para verificar el correcto funcionamiento del lector:



Seguidamente el asistente comprobará que tenemos acceso a los certificados almacenados en el DNIe, tras lo cual termina la instalación y ya podremos disfrutar de las ventajas de nuestro lector de DNIe.

Este mismo asistente nos permite, en caso de desearlo, llevar a cabo la desinstalación del lector.

Fuente: Fermu

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Windows: Desinstalar cliente Oracle

Aunque este blog se basa fundamentalmente en entornos Linux, vamos a aportar algunas soluciones a problemas que nos podemos encontrar en entornos Windows, siguiendo nuestra política de recopilar actuaciones ante las que nos hemos enfrentado.

Una de ellas es la eliminación de un Cliente de Oracle (en nuestro caso la versión 11g). Todo aquel que se haya enfrentado a una desinstalación de Oracle se habrá dado cuenta de lo complicado del proceso, incluso algunos se plantean la opción de formatear el equipo para realizarlo. Nosotros vamos a dar una opción poco elegante pero efectiva cuando se de el caso de que el desinstalador de Oracle (Oracle Universal Installer) no funcione (esto es bastante común).

El primer paso será detener los servicios de Oracle que tengamos en funcionamiento. El modo más rápido y sencillo de acceder al gestor de servicios del sistema operativo es ejecutar el programa services.msc desde el buscador del sistema.



Una vez accedido al administrador de servicios deberemos detener y deshabilitar los siguientes servicios de Oracle:

Oracle11
OracleJobScheduler[Usuario PC]
OracleMTSRecoveryService
OracleOraDbg_home1ClrAgent
OracleService[Usuario PC]

Nota: algunos servicios puede que no se encuentren iniciados, pero debemos deshabilitarlos igualmente.

Una vez hecho lo anterior, accederemos al directorio donde tengamos instalado Oracle (por defecto en C:/app) y le cambiamos el nombre, tras lo que debemos reiniciar el equipo.

Lo siguiente es acceder al editor del registro para eliminar las entradas correspondientes a Oracle:

HKEY_LOCAL_MACHINE/SOFTWARE/ORACLE (toda la carpeta oracle)
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Services (los que empiecen por ORACLE,son los servicios del paso 2)


Una vez limpio el registro podemos eliminar la carpeta que renombramos anteriormente y la entrada del menú inicio correspondiente, con lo que habremos eliminado Oracle de nuestro sistema, aunque nosotros recomendamos además utilizar algún limpiador de registro como CCleaner para completar el proceso.

Fuente: viciolinker




  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Migrar Correo Thundebird

A veces, ya sea por cambiar de equipo informático o por un formateo del mismo, debemos migrar nuestro correo de Thunderbird. El proceso es bastante sencillo y nos puede servir para realizar copias de seguridad, no sólo de los correos sino de los pluggins que tuvieses instalados.

Por defecto, la configuración de Mozilla Thunderbird en Linux se almacena como archivo oculto en el directorio /home/UsuarioX/.thunderbird. Ahí encontraremos los ficheros de configuración (profiles.ini) y una carpeta con un nombre [a-z0-9]*.default que deberemos copiar.

En caso de querer restaurar esta copia habrá que acceder a Thunderbird y reemplazar la carpeta. Si nos encontramos ante una nueva instalación de Thunderbird deberemos acceder por primera vez al mismo, para que nos genere la carpeta de datos y los ficheros de configuración, tras lo cual no realizaremos ninguna otra acción (no crearemos ninguna cuenta, simplemente cerramos Thunderbird).

Una vez hecho esto, accedemos a la carpeta de Thunderbird y copiamos la carpeta que guardamos. Ya sólo quedaría editar el fichero profiles.ini y hacer que apunte a la carpeta que acabamos de copiar, en lugar de la que creó por defecto, la cual podremos eliminar para evitar confusiones futuras.

Fuente: geekjourney

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Eclipse WindowBuilder

A la hora de realizar interfaces gráficas en JAVA con Eclipse, se solía utilizar Visual Editor.

Visual Editor era un plug-in con el cual podías desarrollar las vistas (pantallas) de un programa, hecho en Java, dentro de un entorno gráfico y digo era debido a que este plug-in ya no se puede agregar a las versiones mas actuales de este IDE desde el enlace, tal vez haya otros métodos no muy ortodoxos, pero aquí esta una solución fácil y confiable.

Normalmente este plug-in se podía agregar a Eclipse pegando el enlace http://download.eclipse.org/tools/ve/updates/1.5.0/ en Install New Software dentro del menú Help.

El enlace aterior puede ser encontrado en la pagina conocida como Eclipsepedia.

La segunda opción era descargar Visual Editor desde el link http://www.eclipse.org/archived/ en formato zip para ser agregado como archivo, solo que hay un inconveniente una vez bajado el archivo no se puede agregar.

Pero esto es cosa del pasado gracias a WindowBuilder el cual es un plug-in desarrollado por Google para poder crear aplicaciones Java con un entorno gráfico de una forma muy parecida a como se hacia en Visual Editor.

WindowBuilder puede ser instalado en las ultimas cinco versiones de Eclipse, agregando su enlace respectivo, dependiendo de la versión, en Install New Software dentro del menú Help.

Nota: este tutorial es para instalar WindowBuider en Eclipse classic, ya que Eclipse Java developers Indigo ya lo trae incluido.

Para proceder a la instalación, debemos añadir el siguiente enlace al origen del software (para Eclipse 3.7 -Indigo-).

http://dl.google.com/eclipse/inst/d2wbpro/latest/3.7

Una vez agregado, se deben instalar los cuatro componentes del mismo:


Fuente: Geekalt42

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS