The place where the Customer counts

Free thoughts on (Social) CRM, (Social) Business and the next thing

The place where the Customer counts - Free thoughts on (Social) CRM, (Social) Business and the next thing

Good news for/from CustomerKing

Decisyon logo

A really short post just to announce a good personal news. From October 1, I’m very proud to begin a new professional challenge in Decisyon, one of the most interesting enterprise with an outstanding Collaborative Decision Making & Execution (CDME) platform for rapid development and cloud delivery of operational analytics, planning, in-context collaboration and execution applications.

One of its main solutions, which I followed during the last years considering my interest on customer service evolution, is Decisyon/Engage, a social CRM tool strongly focused on social media analytics, social caring and monitoring which help businesses obtain sustainable competitive edge particularly thanks to the integration between customer data collected from outside and inside corporate boundaries.

And that’s the point for the next future of Social Customer Service, in my opinion. The capability to link data coming from different kind of sources in order to better outline and understand your customers from various perspectives, collaboratively find the best way to satisfy their requests and finally activate/execute the right corporate processes to induce mutual and shared value.

This is one of the biggest challenge Decisyion will face in the next years, thanks to the endorsement of important US Venture Capital firms.

This is one of the biggest challenge for the next social CRM phase.

So, good luck to me and see you soon.

Una piccola introduzione ai sistemi di raccomandazione

Il titolo può sembrare fuorviante ma ciò di cui mi voglio occupare in questo post sono i cosiddetti sistemi di raccomandazione alla base del successo di aziende come Amazon o Netflix. Sistemi che tengono traccia delle preferenze esplicite fornite dagli utenti sui prodotti e che, attraverso l’uso di algoritmi di machine learning, forniscono suggerimenti su nuovi prodotti/servizi che potenzialmente sono di interesse per l’utente. Chissà a quanti di voi sarà capitato di rimanere piacevolmente sorpresi nel constatare che uno specifico suggerimento vi ha indotto a comprare un nuovo prodotto come se qualcuno vi “leggesse nel pensiero”, indovinando i vostri gusti e le vostre preferenze. Eppure dietro a tutto questo non c’è nulla di magico, ma solo l’uso di sofisticate tecniche statistiche che consentono di analizzare approfonditamente le scelte effettuate in passato (acquisto, recensione, voto, ecc.) e le correlazioni tra comportamenti di utenti diversi, con il fine di scovare “affinità nascoste” e quindi prodotti da suggerire più consoni di altri.

Per poter cominciare a capire il funzionamento di questi sistemi, in cui la componente collaborativa è fondante per il successo del business model di aziende come quelle sopra citate, senza impazzire dietro a formule astruse o incomprensibili vi propongo questo breve ebook della O’Reilly (cliccate sul link e dopo la compilazione del form lo potrete scaricare) dove sono accennati alcuni semplici concetti su cui si basano le implementazioni di sistemi del genere.

Practical Machine Learning: Innovations in Recommendation

Practical Machine Learning: Innovations in Recommendation

Se invece avete delle solide basi statistiche e volete approfondire il tema in maniera dettagliata, vi suggerisco di comprare e leggere uno dei manuali più completi in circolazione dal titolo “Recommender Systems: An Introduction“, cominciando magari a scaricare gratuitamente le slide riepilogative dei capitoli dello stesso libro.

Buona lettura e buon divertimento.

Del nuovo mondo delle Advanced Analytics e qualche altra piccola sorpresa

Gartner, all’inizio di questo 2014, ci regala uno dei suoi Magic Quadrants questa volta dedicato ad uno dei settori caratterizzati da una rapidissima crescita – grazie all’interessamento sempre più morboso delle grandi aziende verso il tema dei Big Data e dei suoi annessi e connessi – ossia quello delle Advanced Analytics e nello specifico delle piattaforme che forniscono un set completo di strumenti analitici, descrittivi e soprattutto predittivi, in grado di estrarre, dai dati grezzi, relazioni e pattern (quindi vera e propria informazione actionable) che non sono facilmente identificabili con strumenti classici di business intelligence. Tali strumenti analitici fondano la loro essenza su algoritmi statistici, di ottimizzazione e simulazione.

Per la verità questo settore è maturo da almeno una decina d’anni ma ha subito nel tempo alti e bassi e soprattutto un lungo periodo di stasi a causa dell’eccessiva richiesta di core compentecies necessarie non solo alla loro implementazione quanto alla manutenzione di modelli predittivi che fossero sempre aggiornati ed attendibili. Competenze che però spesso erano difficili da reperire sul mercato perché il campo era troppo specifico e spesso visto come avulso dal contesto/linguaggio tipicamente di business.

gartner_mq_aap_2014

Con l’esplosione della numerosità di fonti – social media, sensori, ecc. -, della varietà sempre più articolata dei dati – strutturati vs. destrutturati – e della loro velocità di produzione/fruizione (le famose tre V che caratterizzano il paradigma Big Data), le aziende stanno sempre più prendendo coscienza che il vecchio adagio “informazione è potere” torna ad essere più attuale che mai. Ma a questo si associa l’esigenza di elaborare in tempi rapidi tali dati e di far emergere informazioni sempre più aggiornate e agibili soprattutto considerando i loro impatti sui processi di business. E in questo ci può essere d’aiuto solo la statistica con le sue innumerevoli capacità di sintesi e attendibilità, ma sempre se opportunamente veicolata da strumenti di facile utilizzo in ambito aziendale.

Le principali novità (sotto forma di concetti) che saltano maggiormente agli occhi dalla lettura del report sono, a mio avviso, le seguenti:

  • cloud: sempre più le piattaforme di analisi avanzate dei dati consentono non solo di accedere ai dati presenti in infrastrutture proprietarie e forniti da sistemi in cloud (in modalità Data as a Service), ma anche di spostare le elaborazioni massive dei motori analitici dai propri server a sistemi più performanti e flessibili in modalità Saas,
  • hadoop: legata al punto precedente, è la necessità oramai obbligata per le piattaforme di lavorare con framework che supportino applicazioni distribuite con elevato accesso ai dati. Questo perché, come si diceva prima, il tema dei Big Data richiede capacità elaborative sorprendenti che riescano ad analizzare in tempi rapidi moli di dati significative e di varia entità,
  • visualizzazione: altro aspetto fondamentale di questi tempi è quello di fornire adeguatamente agli utenti di business, i risultati delle elaborazioni in una modalità tale da renderne l’interpretazione più agevolata e istantanea possibile. E questo può avvenire proprio attraverso una visualizzazione “parlante” di queste informazioni,
  • workflow: la necessità di fornire agli utenti di business la possibilità di costruire modelli avanzati senza avere una elevata proficiency nella programmazione di specifici linguaggi, ha portato tutte le piattaforme ad elaborare delle GUI e dei sistemi di workflow per approntare stream di processi analitici in modalità drag and drop semplificata. Questo logicamente ha incrementato enormemente negli ultimi anni il tasso di adozione e di utilizzo di queste piattaforme nelle aziende coinvolgendo, in maniera più diretta e in prima istanza, gli analisti dei dipartimenti di marketing e customer insight e mettendo le basi per una diffusione più capillare anche in quei settori che cominciano a comprendere (direi finalmente) le enormi potenzialità della modellazione predittiva,
  • verticalizzazione: congiuntamente a quanto detto al punto precedente, uno dei fattori critici di successo nell’adozione di questo tipo di piattaforme sta proprio nella predisposizione di soluzioni verticali non solo per industry ma soprattutto per specifiche applicazioni di business (credit scoring, churn prevention, ecc.),
  • opensource: un’ultima cosa interessante da notare, è che praticamente tutte le piattaforme analizzate prevedono, nativamente o meno, l’integrazione con l’ambiente di sviluppo open source R che utilizza un linguaggio di programmazione orientato agli oggetti oramai diffusissimo sia in ambito accademico che aziendale, contendendo sempre di più il primato con alternative proprietarie commerciali un tempo considerate inattaccabili.

Oltre a ciò è interessante notare come aldilà dei soliti nomi da anni leader di mercato come SAS e IBM (dopo l’acquisizione di SPSS), si affianchino nuove realtà molto interessanti che propongono versioni gratuite dei propri prodotti in modalità desktop-based ed eventualmente commerciali nel caso di richieste di accesso a dataset più grandi/fonti dati più numerose o funzionalità analitiche aggiuntive (RapidMiner e Knime). In più, tra i visionari troviamo anche un’azienda che offre un prodotto che ha, nella profonda conoscenza e conseguente valorizzazione delle potenzialità del linguaggio R, il suo punto di forza e che la sta portando ad essere una delle realtà in più rapida crescita di visibilità nel settore (Revolution Analytics)

Un’ultima nota la riservo con soddisfazione all’unica realtà italiana (i4C Analytics) che se da un lato, purtroppo, non è stata inserita a pieno titolo nel quadrante, dall’altro è riuscita comunque a ritagliarsi uno spazio di visibilità interessante (magari capitalizzabile in un prossimo Gartner MQ). Questo grazie:

  • alla focalizzazione sulle prescriptive analytics ossia sulla capacità di integrare dinamicamente i risultati dei modelli predittivi con i processi decisionali consentendo agli utenti, in maniera semplice e diretta, di attivare automaticamente o meno differenti workflow legati ai processi di business,
  • alla verticalizzazione delle competenze che li ha portati a produrre delle app, ognuna a soddisfare – a seconda dell’industry di riferimento – particolari esigenze di business.