Google Analytics 5, una mejora en su sistema de estadísticas

Hace unos meses Google actualizó su versión del sistema de analítica web Google Analytics, y a día de hoy están conviviendo la versión actual con la nueva versión 5 que ya puedes probar.

Lo primero que debes hacer para verla es acceder a tu cuenta de Google Analytics y activar la nueva versión haciendo click en “Versión nueva”:nueva-version-google-analytics

Lo primero que vemos es un cambio de diseño de la plataforma, y la posibilidad de crear varios paneles con diferentes widgets con información totalmente configurable:

google-analytics5

Otra de las opciones que más me han gustado es que ya integra datos relacionados con redes sociales como son la interacción y acciones:

interaccion-social-google-analytics

Encontramos también una zona muy interesante para todos aquellos que realicen comercio electrónico y quieran medir indicadores como rendimiento de productos y ventas o tiempos de compra:

comercion-electronico-analytics

Esto son sólo algunas de las funcionalidades del nuevo Google Analytics 5 que personalmente me resulta muy interesante, aunque si le veo una cosa que no me gusta, y es que para obtener algunos de los datos es necesario actualizar el código de analytics que ya tenemos en nuestra web y en este caso además se coloca en una posición totalmente distinta, por lo que requiere de modificaciones en algunos casos algo más complejas.

¿Alguien ha probado ya a sustituir el código de Google Analytics por el nuevo?

Vía: Juan Merodio

Cómo Afecta Panda Al SEO

Desde hace tiempo que venimos insistiendo que poblar el sitio de contenidos útiles y valiosos es una de las mejores estrategias para aparecer en buscadores, particularmente en Google. Esta noción se ve reforzada por la última y más importante modificación al algoritmo de Google, comúnmente denominada como Panda. El mismísimo Matt Cutts, principal ejecutivo de Google en el tema de control de spam y posicionamiento web, se encargó de aclarar que el objetivo de este cambio en el cálculo del puntaje que afectará la posición que un sitio ocupa en una determinada página de resultados, tiene como objetivo eliminar a los sitios de baja calidad. Qué entiende Google por un sitio baja calidad. Pues son la webs que, de acuerdo a Google, ofrecen poco o ningún valor al usuario, reflejado en la calidad de su contenido.

De esta manera quedan en jaque los sitios construidos específicamente para recolectar dinero a través del intercambio de enlaces, o AdSense, es decir, básicamente, aquellos sitios que copian o se alimentan del contenido de otras páginas, aún cuando reconozcan la fuente. En consecuencia, se supone, que los sitios que obtendrán los primeros lugares en las páginas de resultados serán aquellos que ofrezcan un mayor valor a sus usuarios a través de calidad en sus textos, principalmente.

El cambio, que en un primer momento se aplica a las búsquedas en idioma inglés, pero es de suponer que muy pronto estará vigente para los otros idiomas, incluyendo el español, ha venido a afectar grandemente a un grupo de sitios que eran básicamente lo que se conoce como “hubs”, es decir, que sin ser granjas de contenidos, tomaban textos de otros sitios para construir sus páginas. Un ejemplo muy claro es Ezinearticles, que ha visto reducido su tráfico hasta en un 90%, al igual que otros sitios como suite101.com o buzzle.com. Cabe preguntarse por qué estos sitios deberían ser penalizados, si hasta la aplicación del Panda generaban gran cantidad de visitas, es decir que contaban con la aprobación de los usuarios. Además el clasificar el contenido, a veces presentándolo de una manera diferente, también puede ser un valor agregado para el usuario.

Hasta el momento, los expertos en seo y posicionamiento web están tratando de “descifrar” o deducir cuáles son los factores que Google penaliza, con la pérdida de posicionamiento. También es justo reconocer que en reiteradas oportunidades nos hemos referido al problema del contenido duplicado, y de cómo esto podría afectar nuestro posicionamiento. Queremos decir que no es la primera vez que Google da un paso en esta dirección, es decir la de premiar el contenido único, original, y de excelencia. Será entonces pues ésta la técnica a la que se le deberá dar prioridad al momento de intentar llegar al primer lugar de los buscadores.

Vía: Palabras Poderosas

¿Cómo mejorar el posicionamiento de tu blog WordPress en Google?

Existen dos puntos claves para lograr buen posicionamiento en Google,

¿Cómo mejorar el posicionamiento de tu Blog WordPress en Google?
  1. Que tu página se encuentre bien optimizada para los motores de búsqueda
  2. Que muchos sitios importantes de la web tengan links hacia tu blog (esto Google lo percibe como un voto de confianza hacia tu sitio)

En este artículo intentaremos ayudarte con el primero de estos puntos. Para el segundo depende mucho de la importancia y nivel que tenga el contenido que publicas en tu blog (el cual debe ser original, no copiado)… Y por supuesto, mucho depende de tu habilidad para la promoción, relaciones públicas y obtención de links.

Hoy gracias a WordPress, y la ayuda del plugin “All in One SEO Pack” (plugin gratuito que puedes encontrarlo en el directorio de plugins de la página de WordPress.org), es más fácil lograr una página optimizada para buscadores y sin necesidad de tener muchos conocimientos en web marketing (SEO).

Antes de revisar las características y beneficios de este poderoso plugin, es muy importante que repasemos un concepto clave:

“Google no mira, Google únicamente lee”.

¿Qué significa esto? Que tu blog puede lucir muy lindo estéticamente (ante los ojos humanos) pero esto poco interesa a Google.

Lo que Google adora es el texto y las páginas sencillas de interpretar (páginas que tengan configurado un título, palabras claves, descripción, alt en las imágenes, etc) puesto que le ahorran trabajo de rastreo y facilitan el trabajo.

Recordemos que los buscadores no son un equipo de personas navegando sitios webs y midiendo su importancia (esto sería imposible debido a la gran cantidad de sitios web que existen). En su lugar, son sistemas automatizados (arañas de búsqueda) que navegan sitios y sólo pueden leer; no ver.

Por tal motivo, la gran importancia que tiene el texto (y no tanto las imágenes) desde el punto de vista SEO.

¡Comencemos a aplicar las primeras mejoras de optimización!

En tu administrador de WordPress, luego de instalar el plugin, ingresa en la opción “Ajustes” y allí dentro la opción “All in One SEO”.
Aquí puedes configurar el título (title), descripción (meta description) y palabras claves (meta keywords) para tu página de Inicio (Home).

Luego, cuando ingreses o edites algún artículo en tu blog, notarás que dispones de campos adicionales para configurar el título, descripción y palabras claves específicas al artículo.

¿Por qué es tan importante configurar el título, descripción y palabras claves de cada artículo?

Básicamente por tres motivos,

  1. estos parámetros definen como se presentará el anuncio de tu artículo en los resultados de búsqueda orgánica de Google (*1). Es muy importante que ésta información describa con exactitud la temática de tu artículo. Así podrás captar la atención de los usuarios y motivarlos a que ingresen a tu blog para leer el artículo.
  2. si no están configurados, Google tiene que revisar el extenso contenido del Post para identificar de que temática habla (lo cual le tomaría más tiempo y esfuerzo)
  3. Google puede equivocarse y no identificar el contenido relevante del post. Es mucho mejor si tu mismo (autor del artículo) especificas de qué se trata tu artículo :-)

Nota: búsqueda orgánica se refiere a los anuncios que aparecen en Google de forma natural. Recordemos que también existen los anuncios patrocinados, en los cuales hay que abonar para posicionarse allí.

Nota: tu anuncio en los resultados de búsqueda es tu posibilidad de venderte antes el público :-) , por lo tanto debes distinguirte en frente del resto de los sitios que aparecen en el listado resultado. Para esto existen recomendaciones en cuanto a la cantidad de caracteres que debe tener el Title, el Description y las keywords. Esta info no es necesaria que la investigues, te la brinda el mismo plugin:-)

Otro punto importantísimo en la optimización de tu página es su velocidad de carga. Si Google percibe que tu sitio es lento, ésto afectará negativamente a tu posicionamiento; puesto que Google no deseará que sus usuarios experimenten una mala experiencia al ingresar en tu sitio.

Esto no significa que debes comprar un servidor de hosting dedicado y exclusivo para alojar tu Blog, lo cual saldría muy caro. Pero si existen alternativas de Web Hosting, a precio accesible, donde tu sitio comparte servidor únicamente con un grupo muy selecto de sitios y dentro de un ambiente mucho más controlado. Allí tendrás mucha mejor performance y estabilidad de servicio que en un hosting compartido (shared) standard.

Mi blog sobre programación php y mysql se encuentra alojado con este servicio de la empresa Solo10.com y allí puedes comprobar su calidad de performance y up-time.

Aquí ya tienes instrucciones para comenzar a optimizar cada artículo de tu Blog. Es un trabajo posiblemente no muy divertido, puesto que no genera resultados concretos en el corto plazo. Pero puedo asegurarte que si lo aplicas bien y eres metódico, notarás mejoras en tu posicionamiento en Google para el mediano y largo plazo. Y lo principal, ¡ganarás mayor audiencia para tu Blog!

En próximo artículo continuaremos revisando otras características del Plugin y como puede beneficiar a tu compaña SEO :-)

Vía: Ayuda WordPress

Vídeos de Matt Cutts: ¿Cuentan los enlaces de Twitter y Facebook?

Matt Cutts se hace eco del artículo de Danny Sullivan [inglés] sobre el uso de los enlaces de Twitter y Facebook como una señal para la clasificación en Google, a través de una pregunta efectuada por uno de nuestros usuarios. Y también da una respuesta clara; ¿Si? ¿No?… ¿Quieres saberlo? Pues haz clic en el vídeo.

Nota: Los vídeos tienen subtítulos en español y estos deberían aparecer por defecto.

¿Cuentan los enlaces de Twitter y Facebook como una señal de clasificación?

Transcripción de “¿Cuentan los enlaces de Twitter y Facebook como una señal de clasificación?”:

Bien. Estamos de vuelta con otra ronda de preguntas de webmasters. Hemos recibido muchas preguntas. Casi 500, pero no responderemos a todas. Muchas son muy interesantes. Comencemos por la más popular, de Web SEO Analytics. La pregunta dice: Hola, Matt. Un artículo reciente de Danny Sullivan sugiere que Google usa los enlaces de Twitter y Facebook como una señal de clasificación. ¿Nos lo puedes confirmar? ¿Nos puedes hablar un poco más sobre este tema?

Sí, lo confirmo. Es verdad que usamos la clasificación y los enlaces de Twitter y Facebook, como siempre hemos hecho, en nuestras clasificaciones de búsqueda web. Pero también intentamos averiguar algo más sobre la reputación de un autor o creador en Twitter o Facebook. Dejadme que os cuente un poco más sobre esto.

Grabé un vídeo en mayo de 2010 en el que explicaba que no usábamos los enlaces como señal. Y en aquel entonces era cierto que no los usábamos. Pero ahora, y estamos en diciembre de 2010, sí que los usamos como señal. Si de veras quieres información exhaustiva sobre esto, echa un vistazo al artículo de Danny Sullivan. Incluiremos un enlace en la descripción del vídeo.

En definitiva, para ofrecer algo más de información, algo más de color, el equipo de calidad de búsqueda cuenta con múltiples grupos y distintas oficinas. Por tanto, la gente, incluyendo al equipo de búsqueda de blog, la gente que ha trabajado en la búsqueda en tiempo real, ha investigado cómo usar este tipo de cosas como señal. Así que primero, se han usado en búsquedas de tipo en tiempo real, donde tal vez se vean tweets individuales u otros enlaces mostrándose y transmitiéndose en la página.

Estamos analizando si tiene sentido usarlos más ampliamente en nuestras clasificaciones de búsqueda web. Hay varias cosas que recordar. La primera es que, si no podemos rastrear una página, si no podemos ver una página, entonces realmente no le podemos asignarles un PageRank y en realidad no cuenta. Por lo que, si podemos obtener los datos, entonces podremos usarlos. Pero a la vez, si por algún motivo, una página no nos permite rastrearla, o no podemos obtenerla por algún motivo, entonces no podremos usarla en nuestras clasificaciones.

Esto es algo que se utiliza relativamente poco y veremos cuánto lo usamos en el futuro. Depende de lo útil que sea y de la robustez que llegue a tener. De lo que sí advertiría a la gente, es de que no se dijera a sí misma, ajá. Voy a salir por ahí y voy a obtener seguidores recíprocos, y voy a obtener un montón de ellos, al igual que antes la gente obtenía un montón de enlaces. De la misma manera que el page rank de páginas no solo depende del número de enlaces, sino también de la calidad de esos enlaces, debes pensar: ¿qué seguidores suponen calidad? Ya sabéis, ¿quienes no son solo robots, un programa de software o algo así?

Por tanto, es una señal que estamos empezando a usar un poco más. La verás principalmente en nuestra búsqueda de tipo en tiempo real, puesto que se transmite. Pero también estamos estudiando aplicarla más ampliamente también en la búsqueda web.

Vía: Google Blog – El blog para webmasters

¿Puede encontrar la gente tu sitio web en Internet?

Una pequeña introducción a las Herramientas para webmasters.
¿Tienes un minuto y nueve segundos?

www.google.es/webmasters

Transcripción: Internet es maravillosa. Es fácil compartir cualquier cosa que crees con todo el mundo. Como Alicia. Acaba de abrir una tienda online para sus joyas hechas a mano. Pero ahora se pregunta: ¿puede la gente encontrar su sitio en Google?

Con las Herramientas para webmasters de Google, Alicia puede asegurarse de que Google encuentra su tienda y la muestra cuando se realiza la consulta correcta. Las Herramientas para webmasters de Google muestran los errores que Google encuentra al leer su sitio, para que Alicia pueda comprobar esos errores y resolverlos para que todas sus páginas aparezcan en los resultados de las búsquedas.

Cada vez que Alicia crea una nueva página de producto, puede usar las Herramientas para webmasters de Google para ver si la gente enlaza con ella y cuán a menudo aparece en los resultados de las búsquedas de Google. Puede usar los datos para identificar las páginas y los productos con más éxito de su tienda, de modo que puede centrarse en ellos y aumentar el tráfico hacia su sitio.

Las Herramientas para webmasters de Google también comprueban que en su sitio no haya software dañino ni otros problemas, e incluso le enviarán un correo electrónico si encuentran algún problema importante. Ahora Alicia puede estar segura de que todo está en orden en su sitio con las Herramientas para webmasters de Google.

vía: Blog oficial de Google para Webmasters

La nueva generación de factores del ranking

Quizá la nueva aplicación de Google para Chrome tenga más significado del que parece. Quizá sea el preámbulo de la nueva oleada de factores con lo que Google mejorará su fórmula para mostrar resultados.

Se comenta que podrían entrar con fuerza los indicadores sociales en google, como de hecho ya funcionan en Bing, pero no está del todo claro cómo. Sin embargo, en este artículo de Seomoz no parecen darles demasiada importancia. Resumo brevemente estos nuevos indicadores:

Cada 3 ó 4 años, hay un gran cambio o incorporación en los factores de los rankings en Google:

1996-1999: On-page keyword uso + meta data

1999 – 2002: PageRank + On-page

2002 – 2005: Anchor text + Nombre de dominio + PageRank + On-Page

2005 – 2009: Autoridad del dominio + Diversidad de dominios que enlazan + Topic modeling + Anchor text + Nombre de dominio + PageRank + On-Page

¿Qué indicadores se añadirán de ahora en adelante?

  1. El nombre de marca – ¿Se sienten cómodos los usuarios con el nombre (reputación) de una web?
  2. Asociaciones de entidad (?) – adivinar qué quiere el usuario para llenarle los resultados solo sobre ese tema. Por ejemplo, buscar “Black Swan” y solo ofrecerle resultados de cine.
  3. Valoración humana de calidad y comportamiento del usuario – Qué opinan los usuarios de cada resultado.

Hace un comentario interesante sobre el tema del baneo anual de la web que se comentó en el artículo de NYT: la gente se sentía cómoda entrando en esa web (con malas prácticas seo) pero Google solo la penalizó manualmente cuando se empezó a hablar mal de ella

Vía: AdSeok

Cambios de algoritmo en Google

google algoritmo baile

El otro dia, Matt Cutts anunció en su blog que estamos viviendo un cambio de algoritmo en google, en cuanto a que google esta haciendo grandes cambios en el algoritmo para eliminar de los serps el “spam” según dicen en googleblog.

En cuanto a lo que se referia como “spam” en principio estaba enfocado al contenido de baja calidad en general, pero parece que el algoritmo, en un futuro proximo, influirá en lo que podriamos llamar Granjas de contenido, como por ejemplo “ehow.com” o similares, como ha hecho recientemente Blekko, que los ha baneado en su motor de busqueda.

En relación con todo esto, leo en SER, que un googler (trabajador de google) con nick “Moultano” ha hecho diversas aclaraciones y afirmaciones en los foros.
Entre ellas dice que han estado trabajando mucho tiempo para mejorar la calidad de los resultados de búsqueda, pero comenta que también es dificil implementar esos cambios sin que sea de una manera “brusca”. Dice que en general quieren que aparezcan sitios más “bondandosos”… por lo que entiendo, tendiendo más a la calidad de contenido que a sitios enfocados 100% al seo (no somos del todo bondadosos).
También dice, que en muy poco tiempo vamos a ver grandes cambios en los serps de google, y así dicho… da un poco de miedo.
Otra cosa que comenta, es que hay multitud de webs generado ingresos con adsense, con contenido “copiado” o de muy baja calidad, y que también estan trabajando para evitar fomentar el “spam” con la utilización de adsense.

En definitiva, todo apunta a que se nos avecina varios cambios de algoritmo en Google considerables en google, y quizás con ello un buen baile de resultados… o quizas solamente vayan abajo los sitios de “poca calidad”
¿Creeís que habrá un cambio de algoritmo considerable?

Vía: SEO Blog.es

Cómo Son Las Penalizaciones De Google

Uno de los grandes temores de los responsables de sitios web son las penalizaciones por parte de  Google. Puede suceder que un sitio que tenía los primeros lugares en las páginas de buscadores de buenas a primeras se encuentre retrasado en su posicionamiento web en varias decenas de lugares. Las causas son múltiples. Una de las situaciones más comunes es el exceso de enlaces salientes en el sitio, algo muy frecuente en los blogs que abusan de los enlaces amigos en las barras laterales o despliegan un exceso de enlaces en los pie de página. Es por esta causa que el intercambio de enlaces con otros sitios debe ser revisado en forma cuidadosa. Una de las premisas que guía el accionar de Google es “siempre es mejor calidad que cantidad”. Así, el buscador pregona que lo que realmente desea de los responsables de cada sitio es que se concentren en ofrecer contenidos originales y novedosos en vez de dedicarse a las técnicas de “black hat” que involucren la creación o afiliación a granjas de links o páginas cuya única finalidad es la de intercambiar enlaces.

Otra causa de penalización es el exceso de “anchor texts” idénticos, elevando de manera exagerada la densidad de las palabras claves en los textos. Lo que Google desea son textos donde las palabras claves estén insertas de forma natural, brindando un valor agregado al usuario, en lugar de texto por el texto mismo. De modo que si el objetivo de los textos de su sitio es percibido por Google como un intento de manejo de posicionamiento en vez de tener como finalidad la de ofrecer valor agregado al usuario, es probable que se haga acreedor de una penalización por parte del buscador.

No todas las penalizaciones son iguales. En un caso extremo Google suspenderá la mención del sitio en cualquier página de búsqueda, es decir que quedará fuera de las páginas de resultado, sin importar la palabra clave que ingrese, inclusive el dominio mismo. La comprobación de tal penalización es muy sencilla: ingrese en la caja de búsqueda de Google el dominio del sitio y si no aparece (puede probar hacerlo encomillado para obtener resultados textuales), pues es muy probable que su sitio haya sido penalizado.

También puede darse el caso que Google decide retrasarlo 30 o 60 lugares de su posicionamiento anterior. Si hemos sido listados en aquellos sitios conocidos como “granja de servidores” deberemos solicitarle al webmaster que elimine nuestra entrada. Asimismo será conveniente depurar los enlaces salientes de nuestro sitio. No es una buena idea tener enlaces con sitios que no estén semánticamente relacionados con nuestra web. Así que si planea lanzar una página de enlaces recomendados sin brindarle mayores consideraciones al tipo de links que en la misma incluya, piénselo de nuevo. Para Google los enlaces de un sitio son considerados un valor agregado para los usuarios, y jamás deberá ser visto como un esfuerzo para manipular el posicionamiento natural.

Si cree que ya ha depurado de estrategias de posicionamiento “spamy” su web, puede, mediante las Herramientas para Webmasters, ponerse en contacto con Google y enviar una “solicitud de reconsideración”. El lado positivo de las penalizaciones es, a pesar de que en ese momento que la sufrimos es muy difícil de ver, el que habremos ganado en experiencia en la utilización de técnicas permitidas que sin duda redundarán en un alza de la calidad de nuestra página.

Vía: www.vpa-internet.com.ar/blog

10 Tips for Optimizing Your Website’s Speed

10 Tips for Optimizing Your Website's Speed

Web page speed and performance is very important to the user experience. If your site is too slow, you’ll not only be losing visitors, but also potential customers. Search engines like Google factor a website’s speed into account in search rankings, so when optimizing your site’s speed, you should take everything into consideration. Every millisecond counts.

Here are just a few basic and general suggestions for improving a site’s performance.

1. Defer Loading Content When Possible

Ajax allows us to build web pages that can be asynchronously updated at any time. This means that instead of reloading an entire page when a user performs an action, we can simply update parts of that page.

We can use an image gallery as an example. Image files are big and heavy; they can slow down page-loading speeds of web pages. Instead of loading all of the images when a user first visits the web page, we can just display thumbnails of the images and then when the user clicks on them, we can asynchronously request the full-size images from the server and update the page. This way, if a user only wants to see a few pictures, they don’t have to suffer waiting for all of the pictures to download. This development pattern is called lazy loading.

Ajax/web development libraries like jQuery, Prototype, and MooTools can make deferred content-loading easier to implement.

2. Use External JS and CSS Files

When the user first loads your web page, the browser will cache external resources like CSS and JavaScript files. Thus, instead of inline JavaScript and CSS files, it’s best to place them in external files.

Using inline CSS also increases the rendering time of a web page; having everything defined in your main CSS file lets the browser do less work when rendering the page, since it already knows all the style rules that it needs to apply.

As a bonus, using external JavaScript and CSS files makes site maintenance easier because you only need to maintain global files instead of code scattered in multiple web pages.

3. Use Caching Systems

If you find that your site is connecting to your database in order to create the same content, it’s time to start using a caching system. By having a caching system in place, your site will only have to create the content once instead of creating the content every time the page is visited by your users. Don’t worry, caching systems periodically refresh their caches depending on how you set it up — so even constantly-changing web pages (like a blog post with comments) can be cached.

Popular content management systems like WordPress and Drupal will have static caching features that convert dynamically generated pages to static HTML files to reduce unnecessary server processing. For WordPress, check out WP Super Cache(one of the six critical WordPress plugins that Six Revisions has installed). Drupal has a page-caching feature in the core.

There are also database caching and server-side scripts caching systems that you can install on your web server (if you have the ability to do so). For example, PHP has extensions called PHP accelerators that optimize performance through caching and various other methods; one example of a PHP accelerator is APCDatabase cachingimproves performance and scalability of your web applications by reducing the work associated with database read/write/access processes; memcached, for example, caches frequently used database queries.

4. Avoid Resizing Images in HTML

If an image is originally 1280x900px in dimension, but you need to have it be 400x280px, you should resize and resave the image using an image editor like Photoshop instead of using HTML’s width and height attributes (i.e. <img width="400" height="280" src="myimage.jpg" />). This is because, naturally, a large image will always be bigger in file size than a smaller image.

Instead of resizing an image using HTML, resize it using an image editor like Photoshop and then save it as a new file.

5. Stop Using Images to Display Text

Not only does text in an image become inaccessible to screen-readers and completely useless for SEO, but using images to display text also increases the load times of your web pages because more images mean a heavier web page.

If you need to use a lot of custom fonts in your website, learn about CSS @font-faceto display text with custom fonts more efficiently. It goes without saying that you have to determine whether serving font files would be more optimal than serving images.

6. Optimize Image Sizes by Using the Correct File Format

By picking the right image format, you can optimize file sizes without losing image quality. For example, unless you need the image transparency (alpha layers) that the PNG format has to offer, the JPG format often displays photographic images at smaller file sizes.

To learn more about how to decide between JPG, PNG, and GIF, read the following guides:

Additionally, there are many tools you can use to further reduce the file weights of your images. Check out this list of tools for optimizing your images.

7. Optimize the Way You Write Code

Look around your source code. Do you really need all the tags you’re using or can you use CSS to help out on the display? For example, instead of using <h1><em>Your heading</em></h1>, you can easily use CSS to make your headings italics using thefont-style property. Writing code efficiently not only reduces file sizes of your HTML and CSS documents, but also makes it easier to maintain.

8. Load JavaScript at the End of Your Document

It’s best if you have your scripts loading at the end of the page rather than at the beginning. It allows for the browser to render everything before getting started with the JavaScript. This makes your web pages feel more responsive because the way JavaScript works is that it blocks anything below it from rendering until it has finished downloading. If possible, reference JavaScript right before the closing<body> tag of your HTML documents. To learn more, read about deferring the loading of JavaScript.

9. Use a Content Delivery Network (CDN)

Your site’s speed is greatly affected by where the user’s location is, relative to your web server. The farther away they are, the more distance the data being transmitted has to travel. Having your content cached across multiple, strategically placed geographical locations helps take care of this problem. A CDN will often make your operating cost a little higher, but you definitely gain a speed bonus. Check outMaxCDN or Amazon Simple Storage Service (Amazon S3).

10. Optimize Web Caching

Along with using caching systems, you should create websites that utilize web caching as much as possible. Web caching is when files are cached by the web browser for later use. Things that browsers can cache include CSS files, JavaScript files, and images.

Aside from the basics, such as putting CSS and JavaScript code that are used in multiple pages in external files, there are many ways to make sure that you are caching your files in the most efficient way possible.

For example, you can set HTTP response headers such as Expires and Last-Modified to reduce the need of re-downloading certain files when the user comes back to your site. To learn more, read about caching in HTTP and leveraging browser caching.

To set up HTTP Expires headers in Apache, read this tutorial on adding future expires headers.

vía: http://sixrevisions.com/web-development/site-speed-performance/