mercoledì 14 settembre 2011

Elementi HTML e testo

Visto che il pagerank ultimamente conta molto meno rispetto ad una volta, nel periodo passato tra due post mi sono concentrato sugli altri aspetti importanti per collocamento nei motori di ricerca. L’ultimo aggiornamento è stato fatto alla fine del Luglio di quest’anno e io in qual periodo stavo in ferie; due bellissime settimane in Africa che mi sono permesso grazie ai soldi guadagnati con Internet. Tornato a casa ho trovato una lettera elettronica di un amico che mi avvisava dell’accaduto, cioè che Googhi si ha dato da fare. Un veloce sfogliata dei miei siti mi ha dato un grande piacere, i nuovi pagerank erano sostanzialmente migliori rispetto a quelli precedenti. Sono arrivata addirittura ad avere 4 siti con il PR5. Ma visto che lo scopo finale non è il pagerank, sono andato a verificare le mie posizioni nei risultati di ricerca. Ma che delusione: la maggior parte dei siti ha perso molte posizioni, andando in alcuni casi dalla prima alla quinta pagina.

Passati alcuni giorni mi sono accorto che quasi tutti i pagerank sono tornati ai vecchi valori. Ho dovuto dire ciao, ciao a tutti e 4 PR5. Ma che c…. sta succedendo? Forse quelli nei forum hanno avuto qualche illuminazione, hanno capito qualcosa che io non riesco a vedere. Ma niente anche di là. In effetti, anche nei forum ho trovato un’atmosfera cupa, gelida, di disperazione perché nessuno capisce niente, oppure non vogliono rivelare le informazioni utili. Centinaia di ipotesi su come procedere, cosa fare, ma nessuna certezza, nessuna conferma sui fatti esistenti che un approccio sia meglio dell’altro. Alla fine mi sono rimasto me stesso e mi sono dato da fare, confrontando i primi posti per le varie parole chiavi, cercando di scoprire degli elementi, delle modalità da introdurre per potenziare i miei siti. Senza andare a spiegarvi come e perché, ecco i due accorgimenti che sto applicando attualmente, sperando di vedere un esito positivo.

Mi sono ricordato un colloquio di un po’ di tempo fa con un conoscente che insisteva sull’importanza dei vari elementi HTML presenti nella pagina. In effetti, analizzando alcune pagine ben piazzate, mi sembra di aver avuto una certa conferma di questo. Pertanto cerco di introdurre i nuovi html tag nelle mie pagine, come per esempio CITE, UL, EMBED e così via, cercando di avere delle pagine più ricche come codifica. Questo per me significa anche più complicate, che personalmente non mi piace perché ritengo che la bellezza è nella semplicità, ma devo cercare di adattarmi alla situazione se voglio fare qualche altro bel viaggio.

Per quanto riguarda il testo contenuto della pagina, con lo solito accorgimento di avere una certa presenza della parola chiave, cerco di ripetere meno possibile altre parole, ricco rendo molto ai sinonimi, avendo in questo modo una ricchezza linguistica maggiore. Mi ricordo che alla scuola la professoressa dell’italiano diceva sempre di evitare di ripetere le stesse parole. Mi sono fatto un piccolo programma che fa un conteggio delle parole all’interno del testo e mi sono accorto che in alcuni casi avevo delle parole ripetute, che non c’entravano niente con le mie keyword, e delle quale la densità nel testo si avvicinava a quella delle parole chiavi. Pertanto, come nella finanza, occorre diversificare gli elementi di codifica, le parole presenti nel testo ed i contenuti del sito. Buon lavoro a tutti.

mercoledì 23 marzo 2011

Le ultime Googleate

Vado matto per le nuove invenzioni linguistiche e sono stato molto contento quando mi è arrivata l’idea per il titolo. Ma qualcun altro ha già avuto quest’illuminazione? Facile verificare con il signore che fa le ate. E’ la risulta che sono stati tanti prima di me di avere ‘sta ispirazione, ma me la tengo comunque in quanto, giuro, è il prodotto originale del mio cervello. In questi giorni siamo più o meno a un anno dal grande rinnovo che Google è apportato nel suo algoritmo e si possono tirare le somme del risultato ottenuto. Si sono due aspetti principali da considerare, il punto di vista di noi webmaster che stiamo cercando di piazzare i nostri capolavori nella prima pagina e l’esperienza dei comuni navigatori che semplicemente cercano per procurarsi qualche informazione, necessaria per il loro lavoro, oppure divertimento. I webmaster hanno digerito i mutamenti e si sono adottati alle nuove regole. Per alcuni è andata bene, ma molti ancora oggi non sono riusciti i livelli di successo che avevano ieri e purtroppo quello che scrive è tra loro.

Ma per i surfer è andata ancora peggio. Un rivista americana specializzata nel tema delle ricerche su Internet ha pubblicato un’indagine svolta tra i comuni utenti della rete e tra quelli che lo fanno in modo professionale ed il risultato è stato catastrofico. Google non risulta più il migliore motore di ricerca e la qualità degli esiti di ricerca offerti sono peggiorati rispetto al periodo precaffeina, come hanno denominato la nuova variante introdotta anno scorso. Per controllare questa notizia mi sono messo anche io a fare qualche indagine è sono davvero deluso con quello che Google forniva. Cercando “forex online” su un motore nazionale, dai primi 10 siti elencati, quattro non davano alcuna informazione utile. Addirittura, al primo posto c’era un post di un forum di una sola frase, cioè senza contenuto e con un pagerank 0. Molto sorprendente. Anche la dirigenza di Google se ne accorta di quello che sta succedendo ed avendo paura di perdere la clientela, ricordiamo ci che in ballo ci sono tantissimi soldi, hanno annunciato che stanno rivedendo profondamente l’algoritmo e che nel più breve tempo possibile cercheranno di migliorarlo e di dare agli utenti finali un buon prodotto.

Per gli addetti ai lavori di tutto il mondo si prospetta un nuovo lavoro, prima di tutto di capire le modifiche che saranno introdotte e dopo di applicare le opportune mosse per raggiungere l’obbiettivo di essere presenti nella prima pagina. Si enunciano tante notti insonne, molta caffeina per tenerci svegli e le nuove frustrazioni vedendo il proprio sito scivolare 10 – 20 pagine indietro. Ma questo è Internet e bisogna adattarsi. Uno dei modi di riuscire in qualche modo indenne da queste faccende è di fare i vari siti in modo diverso, applicando anche una politica di backlink diversificata, in modo di avere i vari profili e sperare che uno di questi è già ben ottimizzato per i cambiamenti che arriveranno.