EXPERIMENTATION ET AIDE A LA DECISION EN MARKETING SUR INTERNET

Cette recherche analyse les avantages que présente l'Internet pour la mise en place d'expérimentations qui visent à mieux connaître et aider le client décideur dans un environnement électronique. Trois expérimentations sont construites qui couvrent des domaines et des logiques de mise en place variées. L'article présente leur mise en place, leur mode opératoire et la mécanique de leur fonctionnement sur Internet afin de faire ressortir les atouts de ce nouveau support pour l'expérimentation en marketing.
EXPERIMENTATION ET AIDE A LA DECISION EN MARKETING SUR INTERNET Michel Calciu (http://mihai.calciu.free.fr) Communication Congrès AFM Tunis et présentation EDF - Paris, 2003
Cette recherche analyse les avantages que présente l'Internet pour la mise en place d'expérimentations qui visent à mieux connaître et aider le client décideur dans un environnement électronique. Trois expérimentations sont construites qui couvrent des domaines et des logiques de mise en place variées. L'article présente leur mise en place, leur mode opératoire et la mécanique de leur fonctionnement sur Internet afin de faire ressortir les atouts de ce nouveau support pour l'expérimentation en marketing.
Les données préliminaires collectées confirment les avantages évoqués et contribuent à accroître la validité externe des études off-line qui sont répliquées.

Introduction

Introduction
Formes de l’expérimentation
Formes de l’expérimentation

L'expérimentation est à côté de l'observation et de l'enquête un des outils majeurs de collecte de données primaires en marketing. C'est une forme d'investigation (scientifique) qui cherche à vérifier des relations de cause à effet entre des variables indépendantes et dépendantes en manipulant et contrôlant les premières et en observant et mesurant les variations concomitantes des dernières. Elle facilite des études causales qui sont "la forme la plus évoluée de la recherche marketing" (Lambin, 1990, p.307).

L'expérimentation n'est pas uniquement l'apanage de la recherche scientifique. Dans le monde des affaires on la pratique tous les jours, de manière implicite, et les gains sont d'autant plus importants quand les risques attachés aux intuitions (hypothèses) entrepreneuriales sont grands. On la pratique aussi de manière explicite, en tant qu'expérimentation « naturelle » (hors laboratoire) avec les marchés test, produits test etc.


Internet et l’échange un terrain d’expérimentation
Internet et l’échange un terrain d’expérimentation

Internet change la manière avec laquelle on travaille, on communique et on échange [1] . Il offre un cadre beaucoup plus attirant pour le commerce que les systèmes télématiques qui l'ont précédé. L'Internet et le commerce électronique assurent un bon support et terrain d'expérimentation pour la recherche en marketing.

Par rapport à son précurseur, la vente par correspondance, le commerce électronique raccourcit de manière substantielle la durée de réaction dans l'échange. La relation avec le client devient interactive [2] .


Le client et l’information
Le client et l’information

La problématique du client/consommateur change aussi, elle se rapproche de celle du décideur. L'intensité informationnelle de son processus décisionnel est grandissante (O'Keefe et McEachern 1998). Il utilise plus d'informations provenant de sources d'information multiples et interagit moins physiquement avec le produit, le service ou le vendeur (Glazer, 1991).

Le "micro-marketing" et l'adaptation de masse qui expriment la capacité des entreprises d'adapter leurs activités marketing à des unités de plus en plus petites - des magasins, clients et transactions individuelles ou des "segments de dimension un" reposent sur la possibilité d'automatiser un grand nombre de processus et décisions (Bucklin et al., 1998). Dans les domaines gérés électroniquement les décisions concernant les millions d'interactions et transactions sont prises par des modèles qui opèrent "derrière la scène". On les appelle modèles "encastrés". Ils s'intègrent dans des systèmes "moitié modèle moitié algorithme de traitement" qui forment ce que l’on peut appeler des systèmes d'aide à la décision du client (SADC).


Le client et l’environnement virtuel
Le client et l’environnement virtuel

Dans un environnement virtuel le client est amené à faire beaucoup plus de choix de manière consciente ou inconsciente. L'environnement virtuel doit et peut lui fournir des aides, qui vont lui faciliter la recherche d'information et les processus de choix. O'Kefee et McEachern (1998) définissent un SADC comme un "système qui relie la société à ses clients existants ou potentiels en assurant un soutien pour une partie du processus décisionnel du client." Les mêmes auteurs affirment que "les SADC représentent une manière de conceptualiser les systèmes de marketing sur le WEB de deuxième génération."

 Pour analyser l'interaction entre le client et ces artefacts d'aide à la décision, l'expérimentation est un moyen de recherche privilégié.


Objet de la recherche
Objet de la recherche

Cette recherche analyse les avantages que présente l'Internet pour la mise en place d'expérimentations qui visent à mieux connaître le client décideur. Des solutions sont proposées pour trois expériences qui couvrent des domaines et des logiques de mise en place variées. Elles essayent de démontrer la versatilité qu'offrent les technologies Internet. Toutes ces expériences sont des réplications « enrichies » de recherches publiées dans des revues scientifiques. Elles sont enrichies car transposées sur Internet et complétées par des hypothèses nouvelles, des variables nouvelles, d'autres modes opératoires, d'autres modalités d'enregistrement des résultats et même parfois d'autres situations. Il s'agit bien d'enrichissements et non de changements, l'objectif étant de permettre la réplication des études originales et de contribuer à rendre leurs résultats généralisables.

Les trois expériences sont en phase de test mais des résultats préliminaires sont disponibles. Cet article présente leur mise en place, leur mode opératoire et la mécanique de leur fonctionnement sur Internet afin de faire ressortir les atouts de ce nouveau support pour l'expérimentation en marketing. Les données préliminaires collectées confirment les avantages évoqués et contribuent à accroître la validité externe des études off-line qui sont répliquées.

 


Avantages des expérimentations sur Internet

Avantages des expérimentations sur Internet
Court historique
Court historique

Pour comprendre les atouts de l'expérimentation en marketing sur Internet, il est utile de mettre en évidence certains aspects essentiels de l'évolution d'Internet.

Internet s'est constitué dès le début (années 70) comme une sorte d'ordinateur mondial en apportant la liberté de la communication et du traitement de données. Cette liberté d'interconnexion a apporté aux expérimentateurs la liberté d'accès aux sujets, et pour les sujets la liberté d'accès aux expériences. Dans les années 90, avec le World Wide Web (Berners-Lee et al. 1993) s'est rajoutée la dimension hypermédia  (hypertexte et multimédia) qui a littéralement fait exploser l'intérêt pour l'Internet. Grâce au mécanisme des URL (Uniform Ressource Locator) qui assure l’accès des liens hypertexte à des ressources distribuées partout dans le réseau mondial, la navigation sur Internet est devenue un processus non linéaire de recherche et extraction qui, comme l’écrivent Hoffman et Novak (1996), assure une liberté de choix illimité et plus de contrôle dans la recherche d’informations pour le consommateur. L'hypermédia a apporté les ingrédients essentiels pour la mise en place des expérimentations en ligne. Pour les sujets il a supprimé la plupart de freins psychologiques face à l'environnement virtuel.


Ubiquité
Ubiquité

L'expérimentation sur ordinateur est pratiquée depuis longtemps. L'interactivité, le multimédia ont pu supporter beaucoup de belles et puissantes expériences. La grande différence qu'apporte l'Internet pour l'expérimentation est l'ubiquité. Cette ubiquité facilite l'application, la diffusion et la réplication des expériences. Internet permet de sonder de manière simultanée des sujets se trouvant dans des environnements et dans des cultures différentes, sans contraintes spatio-temporelles.


Continuité
Continuité

Parmi les premiers avantages qu'Internet offre aux études marketing on trouve la continuité.

Selon Mahajan et Wind (1999) une recherche marketing efficace devra s'engager dans un processus expérimental continu et itératif similaire à la manière dans laquelle le médecin fait un diagnostic. Le premier diagnostic, fait en temps réel, conduit à une série d'expériences. Le docteur prescrit un traitement et, après avoir essayé le traitement pendant quelques semaines, le patient revient. Le docteur vérifie l'efficacité du traitement. En marketing par contre, beaucoup de projets de recherche sont vus comme un évènement unique.

En même temps que les diagnostics expérimentaux progressent, le médecin éduque le patient sur les symptômes auxquels il doit faire attention et sur les possibles traitements. Ce processus interactif et itératif conduit au meilleur traitement. En utilisant la même approche, la recherche marketing pourrait aider les clients à formuler leurs besoins et problèmes ou comprendre et tester des solutions pour un nouveau produit ou service.


Facilité de réplication
Facilité de réplication

L'autre avantage majeur apporté par l'Internet est la possibilité de réplication des études. La réplication est essentielle pour vérifier la généralité des résultats des expérimentations et leur confère une validité externe.

L'importance de la réplication pour assurer la validité des études est défendue par plusieurs chercheurs (Calder, Phillips et Tybout 1981, Lynch 1982, 1999, McGrath et Brinberg 1983, Winer 1999). Selon Lynch (1982, p. 237), "pour qu'une expérience donnée puisse contribuer au progrès, quelqu'un - que ce soit le chercheur initiateur ou d'autres dans le domaine - doit essayer de la répliquer conceptuellement à un certain moment plus tard. Vu la faible incidence des réplications conceptuelles dans notre discipline, nous pourrons sans doute bénéficier si la recherche publiée contenait une petite tentative de tester la généralité des résultats rapportés".

McGrath et Brinberg (1983) soulignent qu'il est impossible d'accroître la validité externe d'une étude dans le cadre de la même étude. La validité externe d'une étude ne peut être vérifiée qu'en fonction des résultats d'une autre étude ou série d'études.

Calder, Phillips et Tybout (1981) font la distinction entre des recherches d'application d'effets (EA) et celles d'application de théories (TA) [3] et soulignent l'importance de la validité externe pour les études de la première catégorie. Dans les applications d'effets on cherche à généraliser les résultats à d'autres situations et populations et dans l'application de théories c'est la théorie en elle-même qui se veut généralisée et non des effets particuliers ou des résultats empiriques [4] .

 


Exemples d'expérimentations sur Internet - Discussions et résultats

Exemples d'expérimentations sur Internet - Discussions et résultats
Présentation
Présentation

Les expérimentations qu'on a mises en place sur Internet et présentées ici essayent de couvrir des domaines variés qui vont d'applications opérationnelles, qui concernent directement le monde industriel, jusqu'à des études qui servent la théorie et la recherche. Elles s'intéressent au processus décisionnel du client et/ou du décideur dans un environnement virtuel. Elles mettent en place des mécaniques d'expérimentation variées et démontrent ainsi la versatilité qu'offrent les technologies Internet.

Parmi les aspects du processus décisionnel abordées on trouve le traitement de l’information, le choix et l’aide à la décision.

La première étude, une analyse conjointe, illustre deux manières d'expérimenter: une qui évite d'importuner les sujets (expérience naturelle), bien adaptée aux applications industrielles et l'autre qui reproduit les conditions de laboratoire sur Internet.

Dans la deuxième expérience, une réplication sur Internet de l'étude faite en laboratoire par Janiszewski (1998), on essaye de vérifier dans quelle mesure la disposition des images par rapport au texte, dans un affichage, affecte l'attention et la mémorisation. Le système d'enregistrement des mouvements de la souris à l'intérieur d'une page web qu'on a développé aide à enregistrer l'attention accordée aux stimuli. Il permet de mesurer l'attraction de l'attention exercée par des stimuli en position non focale, d'établir des relations entre l'attention, la mémorisation et la pression concurrentielle des autres stimuli en fonction de leur disposition par rapport au point focale. On espère pouvoir transposer une partie des théories et modèles sur la concurrence spatiale aux problématiques de la compétition pour l'attention à laquelle se livrent les stimuli dans un affichage. Cela pourra apporter des informations utiles pour le commerce électronique et la vente par correspondance. Le système de "mouse-tracking" qu'on a développé doublé d'un système de "eye-tracking", durant les mêmes expériences, pourra révéler des corrélations intéressantes entre les mouvements des yeux et ceux de la souris, avec des conséquences importantes pour l'observation des comportements sur Internet.

La dernière expérimentation étudie l'effet de la complexité du problème à résoudre, de la présentation visuelle et de la présence d'un système d'aide à la décision sur la performance décisionnelle. La performance décisionnelle est mesurée en termes de qualité de la décision et de temps de préparation de la décision.  Le problème analysé est la localisation d'un nouveau point de vente (site commercial) en fonction de la distribution spatiale de la demande et des positions des concurrents [10] . Le plan d'expérience développé fait varier la difficulté du problème, la présentation de l'information géographique et la présence du système d'aide à la localisation. La difficulté du problème est manipulée sur deux aspects : le nombre de points de vente à prendre en compte et la présence ou absence du réseau propre pour le nouveau site à placer. La présentation de l'information géographique qui doit gérer la complexité inhérente de tels problèmes chargés de données peut avoir des effets ambigus sur la qualité des décisions spatiales. Ici on manipule essentiellement la présentation des données sur la demande, en faisant varier les niveaux d'agrégation territoriale et la dispersion des données.

L'accès au système d'aide à la décision pour une partie des sujets avant la prise des décisions prévu dans le plan expérimental, permet de mettre en valeur la contribution de ce système à la performance décisionnelle.

 


Diversité des technologies
Diversité des technologies

L’ordre de présentation a été dicté par les solutions techniques qui utilisent progressivement les fonctionnalités intégrées au niveau du programme client (le navigateur): Javascript, le HTML dynamique, les applets puis les fonctionnalités au niveau du serveur : CGI et programmes en langage Perl, pages serveur dynamiques (PHP, JSP), le serveur de bases de données et la technologie « multitiers » qui sépare les logiques de présentation (servlets, JSP), d’application (Java Beans) et d’accès aux données.


Qualité des résultats et intérêt des réplications
Qualité des résultats et intérêt des réplications

Les résultats des réplications effectuées sur Internet ressemblent beaucoup à ceux des expériences originales off-line et sont pour la plupart significatifs statistiquement malgré le caractère partiel ou préliminaire des données collectées et le nombre parfois réduit de participants. Cela nous amène à faire la recommandation que la réplication des expériences de laboratoire sur Internet devienne une règle partout où cela est faisable. Ainsi on peut renforcer la validité externe des expériences au moindre coût et on peut éliminer les barrières temporelles et spatiales que rencontrent les réplications off-line.


Observations
Observations

Inversement à l’exception des expériences qui étudient des environnements électroniques (Dreze et Zufrieden, 1997 ; Galan et Sabadie, 2001 ; Gonzales, 2001 ; Cases A-S, 2002), la mise en place d’expériences originales sur Internet risque d’être réductrice en raison des limites des environnements électroniques en général et de l’Internet en particulier. Les limitations actuelles liées essentiellement au débit de la communication font qu’il est encore difficile d’assurer un degré de réalisme satisfaisant malgré la disponibilité d’applications multimédia et de réalité virtuelle performantes.

En plus en absence de sujets «captifs», la durée et complexité des expériences en ligne doivent être limitées afin de conserver une certaine attractivité, d’éviter les abandons et ne pas déranger ce qui reste de la traditionnelle bienveillance des internautes après la rapide "urbanisation" de ce qui était perçu avant comme le "village mondial".


Commentaire
Commentaire

Chacune des expériences présentées et mises au point en ligne mérite un développement individuel et sera continuée. L’objectif premier de cette recherche est de montrer les possibilités et la flexibilité offertes par les technologies Internet sans oublier les limites, de vérifier par le recueil de données préliminaires la concordance entre les études originales et leurs réplications sur Internet.


Expérience 1: Effets des caractéristiques d'un site web sur la préférence et l'efficacité.

Expérience 1: Effets des caractéristiques d'un site web sur la préférence et l'efficacité.
Présentation
Présentation

La première expérimentation est une application de la méthode de l'analyse conjointe sur Internet. L'analyse conjointe est l’une des méthodes développées par la recherche marketing qui a connu une très grande reconnaissance dans le monde des entreprises. Elle permet de détecter l'importance accordée par le consommateur aux différentes caractéristiques (attributs) qui gouvernent le choix d'un produit.

L'étude s'inspire d'une recherche de Dreze et Zufrieden (1997). Elle utilise comme modèle les pages web qui exposent l'offre de CDs audio d'un grand opérateur français de commerce électronique. Sont définis différents concepts (styles) de présentation des pages web en fonction de quatre attributs.


Attributs
Attributs

Les attributs sont le fond de page, la dimension des images, la manière de distribuer les fichiers son et le texte de présentation. Les modalités ou niveaux de chaque attribut qui seront combinées pour obtenir des concepts de pages web à tester, sont données dans le tableau 1.

 

Tableau 1 - Attributs caractérisant les pages web et leurs modalités

 

Fond de page

Dimension des images

Fichier son

Description texte

1.             blanc

2.             vert

3.             avec motif

1.             petite

2.             grande

 

1.             générique

2.             spécifique (Win, Mac)

1.             non

2.             oui


Plan d’expérience
Plan d’expérience

Pour générer le nombre minimum de concepts de sites on utilise le même plan expérimental fractionné que l'étude originale (voir tableau 2)

 

Tableau 2 - Matrice des concepts de sites web testés

 

Fond de page

Image

Son

Texte

Blanc

Petite

Générique

Non

Blanc

Grande

Spécifique

Oui

Vert

Petite

Spécifique

Non

Vert

Grande

Générique

Oui

Motif

Petite

Spécifique

Oui

Motif

Grande

Générique

Non

Vert

Petite

Générique

Oui

Vert

Grande

Spécifique

Non

 

Les huit concepts à tester sont visibles dans la figure 2. Ils vont servir pour évaluer l'utilité partielle des attributs et de leurs modalités et expliquer la préférence pour un concept ou l'efficacité d'un concept en appliquant des méthodes d'analyse conjointe.


Deux modalités de collecte des données
Deux modalités de collecte des données

.Il y a deux types d'expérimentation vers lesquels sont dirigés les sujets alternativement, une mesure la préférence et l'autre mesure l'efficacité (voir figure 1).

Figure 1. Collecter les mesures de préférence ou d'efficacité des sites web

 

sans filtre IP

avec filtre IP

mesure de préférence : le classement

 

L'expérience qui mesure la préférence demande aux sujets de classer les huit concepts de pages. Les sujets peuvent déplacer et superposer les images réduites des concepts testés dans l'ordre de leur préférence, grâce à des programmes qu'on a développés en langage Javascript et qui exploitent les mécanismes du HTML dynamique [5] . Ce genre d'expérimentation reproduit les conditions de laboratoire sur Internet. Elle demande certes un effort de la part du sujet mais elle apporte aussi un plus d'information. Par exemple les variations intra-sujet des variables étudiées sont une source d'information qui n'est pas disponible dans l'autre étude qui se limite uniquement aux variations inter-sujets.

mesure d'efficacité : nombre de pages accédées, temps de visite

L'expérience qui mesure l'efficacité dirige le sujet vers un des huit concepts de site utilisant comme critère filtre le numéro IP de l'ordinateur à partir duquel il s'est connecté à l'Internet. Le temps passé et le nombre de pages visitées par le sujet servent de mesures d'efficacité du site testé. Cette solution proposée par Dreze et Zufrieden (1997) a l'avantage de rendre l'expérience imperceptible par le sujet. Le client navigue dans le site commercial réel sans s'apercevoir qu'il est le sujet d'une étude. Ce genre d'expérimentations qui évitent d'importuner les sujets sont bien adaptées aux applications industrielles.

 


Commentaire
Commentaire

La tentative de combiner les deux types d'expérimentations en une seule peut révéler des effets différenciés de certaines variables sur la préférence et sur l'efficacité.

Pour les besoins opérationnels qui exigent des critères pour guider la conception des sites web, ces expérimentations permettent de développer et valider les modèles de réponse (préférence, efficacité) et de calculer les utilités partielles des attributs du site et de leurs modalités. En plus en simulant toutes les alternatives de site web Dreze et Zufrieden trouvent celles qui se trouvent sur la frontière d'efficacité.


L'analyse conjointe comme application web
L'analyse conjointe comme application web

 

Les études d'analyse conjointe peuvent être developpés comme des vrais services en ligne, en appliquant une technologie moderne de type multitiers et les progrès du open source (ex. Java). La technologie multitiers sépare les logiques de présentation, d'application (de business) et d'accès aux données. La logique de présentation utilise les pages serveur (Java Server Pages - JSP, Extensible Server Pages - XSP) pour fournir l'information dans une forme visuellement riche et lisible. Les Java Beans sont utilisés comme une partie du niveau intermédiaire de la "business-logic" ou la logique d'application qui est sensé de former un tampon entre la logique de présentation et la logique d'accès aux données. La business logic encapsule dans cette application au moins trois autres strates, la logique d'enquête, la logique interne du modèle et la logique de persistance.

Logique de présentation

Logique d'application (ou Business logic)

Logique d'accès aux données

 

Schemas

 

Fichiers XML

 

Tables de la BD

Figure 2. Déroulement d'une expérience de préférence de site sur Internet

 

 


Expérience 2: Etude de la compétition des stimuli visuels pour capter l'attention du consommateur [6] .

Expérience 2: Etude de la compétition des stimuli visuels pour capter l'attention du consommateur [6] .
Présentation
Présentation

Cette recherche étudie les effets de la disposition des images dans un affichage sur l'attention et la mémorisation dans des situations de recherche exploratoire d’informations. Elle réplique sur Internet une étude en laboratoire faite par Chris Janiszewski (1998). L’étude s'inscrit dans la lignée des recherches qui s'intéressent aux traitements sous-conscients et qui cherchent à éclairer les seuils inférieurs de l'effort mental utilisé par les consommateurs dans la recherche d'informations. Il s'agit d’observer la compétition pour l'attention, exercée par des stimuli en position non-focale, qui génère des interférences dans le traitement de l'information visuelle. Du point de vue de la théorie du traitement hémisphérique, l'interférence dans le traitement peut être le résultat de la compétition du matériel non-focal pour des ressources sous-conscientes (Janiszewski 1990). La puissance du signal de chaque objet qui entoure le point focal influe sur la concurrence pour l'attention à laquelle est soumis le système visuel. L'objectif de cette recherche est de vérifier cette influence en situation de recherche exploratoire en manipulant la mise en page des objets visuels. Les résultats montrent que les sujets accordent plus d’attention et mémorisent mieux des objets présentés dans des zones à faible concurrence. Le déroulement des quatre expériences, telles qu'on les a adaptées pour l'Internet, est présenté dans la figure 3.


Déroulement des expériences
Déroulement des expériences

 

Figure 3. Déroulement des expériences

Etude 1 :

48 mises en page alternant texte et couleur défilent toutes les 5 secondes. L'attention est mesuré par (eye/mouse-tracking)

Etude 2 :

16 mises en page avec des images en situations de concurrence visuelle différentes (1, 2 ou 3 objets non focaux en compétition d'attention) défilent toutes les 5 secondes. Est mesurée la mémorisation.

Etude 3 :

Même principe que l'étude 2, avec une série différente d'images. Deux groupes de sujets sont constitués. Un groupe regarde un environnement visuel concurrentiel (2 ou 3 objets non focaux en compétition d'attention) et l'autre regarde un environnement non compétitif. On mesure la mémorisation.

 

Environnement visuel concurrentie

 

Environnement visuel non-concurrentiel

Etude 4 :

Observation par eye et/ou mouse-tracking dans un environnement visuel réel (ou réaliste).

Sont corrélées les fixations des yeux et/ou de la souris avec les commandes d'achat réelles.

 

 


Résultats des expériences
Résultats des expériences

Dans l'étude 1 on manipule la mise en page de manière à faire varier la concurrence pour l'attention au regard d'une zone de l'affichage. Les zones placées dans des environnements visuellement concurrentiels reçoivent moins d'attention

Dans l'étude 2 on montre que, en situation de recherche exploratoire, l'accroissement de la compétition pour l'attention générée par l'information qui entoure une zone réduit la probabilité de mémorisation de l'information.

L'étude 3 montre que la relation entre la concurrence visuelle engendrée par l'information non focale et la mémorisation pour l'information focale persiste même si toutes les zones d'un affichage donné sont visuellement concurrentielles ou non concurrentielles.

L'étude 4 apporte des arguments en faveur du fait que le modèle de recherche exploratoire peut expliquer les différences dans l'attention et les ventes de produits dans une page de catalogue (papier ou électronique) en plus de celles expliquées par le modèle de recherche ciblée.

La transposition sur Internet de cette étude a été rendue possible grâce au système de "mouse-tracking" qu'on a développé [7] . Ce système enregistre les mouvements de la souris à l'intérieur d'une page web et fait ressortir les fixations de la souris sur les stimuli visuels. On essaye ainsi de substituer les fixations de la souris aux fixations des yeux pour mesurer l'attention. Il faut toutefois rester prudent quant à la validité d'une telle substitution. Elle est imposée par l'équipement usuel que possèdent les internautes aujourd'hui.


Comparaison de la réplication avec l’étude originale
Comparaison de la réplication avec l’étude originale

La réplication sur Internet de l’étude 2 avec la participation de 116 étudiants en gestion a donné des résultats qui ressemblent beaucoup à l’étude de référence.

Le test linéaire qui vérifie l’influence du nombre d’éléments non focaux en concurrence pour l’attention a été significatif aussi bien dans l’étude originale (F(1, 116) = 19,54 ; p < 0,5) que dans l’étude répliquée sur Internet (F(1, 115) = 22,53 ; p < 0,001).

Le test des contrastes planifiés a montré une meilleure mémorisation des objets présentés dans des zones à faible concurrence ( = 5,35 sur 16 objets ou 33,43% dans l’étude originale et  = 5,18 ou 32,37% dans la réplication sur Internet) que dans les zones à compétition moyenne ( =9,73 des 32 objets ou 30,4% ; F(1,116) = 4,84, p <0,05) dans l’étude originale et  = 8,68 ou 27,12% ; F(1, 115) =18,45 p<0,000 dans la réplication) et une meilleure mémorisation des objets présentés dans les zones à compétition moyenne ( =9,73 ou 30,4% dans l’étude originale et = 8,68 ou 27,12% dans la réplication) par rapport aux zones de forte compétition (4,37 sur 16 objets ou 27,31% ; F(1,116)=8,04, p<0,05) dans l’étude originale et 4,24 ou 26,5% ; F(1,115)=0,313 contraste non significatif dans l’étude répliquée).


Expérience 3: Effets de la complexité du problème, de la présentation de l'information et de l'utilisation d'un système d'aide à la décision sur la performance décisionnelle [8] .

Expérience 3: Effets de la complexité du problème, de la présentation de l'information et de l'utilisation d'un système d'aide à la décision sur la performance décisionnelle [8] .
Présentation
Présentation

Cette dernière expérimentation avance vers le cœur du processus décisionnel. Elle étudie la résolution d'un problème d'optimisation.

Sont analysés les effets de la présentation de l'information et de la difficulté du problème sur la qualité de la solution donnée. Pour ces aspects l'étude s'inspire d'une recherche de Swink et Speier (1999). Il ne s'agit pas ici d'une stricte réplication car le problème à résoudre est différent [9] et sont investigués en plus les effets de l'utilisation d'un système d'aide à la décision.

Un des défis de la présentation de l'information géographique est de gérer la complexité inhérente à de tels problèmes chargés de données (McMaster et Shea, 1992). La complexité de l'information cartographique vient de multiples sources comme le nombre d'observations et leur diversité, le niveau d'agrégation et la variabilité spatiale (Burrough, 1992 ; McMaster et Shea, 1992).


Problème à résoudre
Problème à résoudre

Figure 7. Transformation de la représentation cartographique

 

(a)

(b)

(c)

 

Le problème à résoudre est de trouver la meilleure localisation d'un point d'offre dans un espace face à d'autres points d'offre concurrents et alliés en tenant compte de la distribution spatiale de la demande. En marketing ce n'est pas uniquement un problème géographique (géo-marketing) et de traitement d'information cartographique, c'est aussi un problème de positionnement de marques, voire même un problème d'emplacement de stimuli visuels dans un support publicitaire (voir la discussion de l'expérience précédente).

La situation réelle dont on s'est inspiré utilise la disposition spatiale des hypers- et supermarchés dans l'agglomération Lille Roubaix Tourcoing dans le nord de la France. Une transformation de la représentation cartographique (voir figure 7) a été nécessaire pour éliminer les biais dus à une éventuelle reconnaissance des lieux par les sujets et les risques que d'autres variables, qui ne sont pas traités par le problème à résoudre, soient prises en compte.

 


La complexité des tâches
La complexité des tâches

Une mesure objective de la complexité est en fonction du nombre d'actions distinctes qui doivent être exécutées et le nombre de chaînes d'informations qui doivent être traitées quand on remplit une tâche (Wood, 1986).

Campbell (1988) lie la complexité du problème au nombre maximum de chemins qui peuvent conduire au résultat désiré. L'Incertitude ( si le chemin mène oui ou non vers l'état final préféré) accroît la complexité en augmentant l'ensemble de chemins potentiels, perçu par le décideur, vers les résultats désirés.

D'autres chercheurs ont exprimé la complexité comme une fonction du nombre "d'états de connaissance" possibles dans une tâche (Newell et Simon, 1972 ; Card, Moran, et Newell, 1983).


La complexité des tâches dans l’étude
La complexité des tâches dans l’étude

 Dans cette étude la difficulté de la tâche est représentée par la dimension du problème à résoudre et par la prise en compte d'un deuxième réseau de distribution (voir figure 4).

Figure 4. Augmenter la complexité de la tache par la dimension du problème et par la prise en compte d'un deuxième réseaux de distribution.

 

(a) petit problème, un réseau

(b)petit problème, deux réseaux

(c) grand problème, deux réseaux

 

Dimension du problème

 Une manière d'accroître la complexité d'une carte est d'augmenter le nombre de points de données qui doivent être examinés pour prendre une décision. Plusieurs études ont montré que pour les tâches de décision géographiques la qualité se dégrade avec le nombre de décisions et états de connaissance (Taylor et Iwanek, 1980 ; Robinson et Swink, 1994 ; Crossland et al. , 1995 ; Swink et Robinson, 1997).

La présence d'un deuxième réseau : Pour placer sa nouvelle offre dans un espace occupé uniquement par des concurrents le décideur va intuitivement rechercher les endroits, où il y a une meilleure concentration de demande et une relativement faible occupation par les concurrents. Quand par contre l'espace est occupé aussi par des alliés, le problème se complique, car le décideur doit en plus éviter de "cannibaliser" son propre réseau. Cette variable est introduite par nous, on ne la retrouve pas dans l'étude de Swink et Speier (1999).

De cette discussion se dégage l'hypothèse que l'augmentation de la complexité du problème dégrade la qualité des décisions (H1a) et augmente le temps de résolution du problème (H1b).

 


Agrégation des données
Agrégation des données

Le niveau d'agrégation des données (ou la mesure dans laquelle des données sont totalisées) est une décision clé dans la présentation cartographique de l'information.

Des études antérieures sur l'agrégation de l'information tabellaire indiquent que l'agrégation des données influence directement la qualité de la décision (Abdel-Khalik, 1973 ; Barefield, 1972 ; Benbasat et Dexter, 1979 ; Chervany et Dickson, 1974).

L'effet de l'agrégation des données quand on utilise de l'information cartographique ou un système d'information géographique (SIG) n'est pas bien compris.

L'agrégation réduit l'ampleur du problème à formuler, la quantité de données exigées et la quantité de mémoire et temps ordinateur nécessaire pour évaluer les solutions. Des chercheurs ont examiné les erreurs de modélisation introduites dans les décisions géographiques comme résultat de l'agrégation des données (Current et Schilling, 1981 ; House et Jamie, 1987 ; Ballou, 1994).

Les cartes permettent aux décideurs de faire appel à des heuristiques qui réduisent le nombre de chemins vers le résultat ou des états de connaissances à examiner (Smelcer et Carmel, 1997).

Taylor et Iwanek ont montré que les décideurs produisaient des solutions meilleures pour la localisation des facilités dans des problèmes de transport, quand plus de zones de consommateurs étaient inclues dans les problèmes (i.e., données moins agrégées). Ils ont suggéré que la désagrégation des données facilite la résolution du problème, en permettant aux décideurs d'identifier des structures ou motifs qu'on trouve souvent dans une carte. L'information fournie par des données désagrégées peut faciliter une meilleure reconnaissance des motifs, des développements heuristiques ou un meilleur apprentissage.

La théorie de la surcharge d'information prédit des résultats opposés. Les problèmes désagrégés augmentent la charge d'information en raison du nombre accru des chaînes d'information à traiter par le décideur. Des études antérieures indiquent que le décideur peut utiliser des stratégies simplificatrices non compensatoires de recherche d'information quand la charge d'information augmente (Payne, 1976 ; Payne, Bettman, et Johnson, 1988).

Ces stratégies donnent d'habitude des solutions moins bonnes(Cook, 1993 ; Minch et Sanders, 1986).

La combinaison de ces deux perspectives théoriques suggère que la désagrégation peut améliorer la qualité de la décision jusqu'à un point (H2a), mais cette amélioration a un coût en temps nécessaire à la décision (H2b).

 


Agrégation des données dans l’étude
Agrégation des données dans l’étude

 

Figure 5. Trois niveaux d'agrégation des données géographiques

 

a) 200 régions

b) 100 régions

c) 50 régions

 

 


Dispersion des données
Dispersion des données

 

Figure 6. Trois niveaux de dispersion des données

 

a) dispersion faible

b) dispersion moyenne

c) dispersion forte

 

 

 Taylor et Iwanek (1980) ont trouvé que les décideurs avaient le plus de difficulté à résoudre des problèmes de localisation de facilités quand les clients étaient dispersés uniformément et sans des groupements particuliers. Quand la dispersion est uniforme ou a une très faible variance, il y a peu de motifs à distinguer dans les données, et l'efficacité de la prise de décisions est inhibée. A l'inverse des données fortement dispersées simplifient la résolution du problème en produisant des motifs plus forts et plus reconnaissables.

Résultent comme hypothèses que les grandes variations de dispersion dans les données conduisent à des décisions meilleures (H3a) et obtenues dans des délais plus courts (H3b).


L'aide à la décision
L'aide à la décision

Préparer les sujets avec un système d'aide à la décision (SAD) fait partie de l'expérience. La moitié des sujets ont cette occasion et sont désignés aléatoirement par l’application serveur qui orchestre l'expérience sur Internet. Le SAD présente des situations simulées qui ressemblent aux problèmes à résoudre. Les sujets peuvent placer le nouveau site dans différents endroits et voir la part de marché obtenue. Il est aussi possible obtenir des solutions optimum.

Figure 8. - a) Applet en JAVA utilisé comme système d'aide à la décision pour la localisation optimum d'un point d'offre. b) Formulaire d'une page web qui utilise la technologie Liveconnect pour transmettre des scénarii vers l'applet.

 

 

(a)

(b)

 

Le système d'aide à la décision utilisé comme instrument de préparation à la décision peut contribuer à éclairer le décideur sur la manière de traiter le problème, faire ressortir les variables importantes et améliorer ainsi les performances des décideurs.

L’hypothèse qu’on fait est que la résolution préalable de problème similaires en utilisant un système d'aide à la décision augmente la qualité des décisions (H4a) et réduit le laps de temps dans lequel les décisions sont prises (H4b).


Les niveaux des variables
Les niveaux des variables

Les variables et leurs modalités qui sont combinées pour obtenir des situations cartographiques différentes sont présentés dans le tableau 3.

 

Tableau 3. Variables et modalités utilisées pour construire le plan d'expériences*

 

Dimension du problème

Dispersion

Agrégation

Réseau propre

SAD

1. petit (18 sites) [s]

2. grand (47 sites) [b]

1. faible [l]

2. moyenne [m]

3. forte [h]

1. 50 zones

2. 100 zones

3. 200 zones

1. absent [n]

2. présent [c]

1. absent

2. présent

* Entre [] se trouvent les notations mnémoniques qu'on utilise pour appeler les situations générées.


Le plan d expériences
Le plan d expériences

En faisant abstraction du SAD qui est administré aléatoirement, il reste quatre variables dont les modalités sont combinées dans un plan factoriel complet, à partir duquel sont construites des images représentant 36 situations différentes (2x3x3x2).

Les solutions optimums pour toutes les situations qui résultent de ce plan d'expériences sont données dans le tableau 4.

 

Tableau 4. Solutions optimums pour les 36 problèmes de localisation résultant du plan factoriel complet

 

Plan

Mnémonique*

Part de marché

X

Y

1111

sl200n

0,12231777

372

231

1112

sl200c

0,62768203

236

312

1121

sl100n

0,11950278

362

222

.....

2331

bh50n

0,28695092

268

296

2332

bh50c

0,5384263

269

295

 

 

 

 

 

* La colonne Mnémonique utilise les notations introduites au tableau précédent pour qualifier chaque situation. Par exemple sl200c signifie: petit problème à dispersion faible, agrégé au niveau de 200 zones et avec présence du réseau propre.


Organisation de l ‘expérience
Organisation de l ‘expérience

Durant l'expérience chaque sujet doit résoudre trois problèmes dans le cadre d'un scénario qui lui sera affecté de manière aléatoire.

La composition des scénarios est présentée dans le tableau 5.

 

Tableau 5. Constitutions de scénarii avec trois problèmes par sujet

 

Scénario

Problème 1

Problème 2

Problème 3

1

sl50n

bm100n

sh200n

2

bl50n

sm100n

bh200n

3

sl100n

bm200n

sh50n

4

bl100n

sm200n

bh50n

5

sl200n

bm50n

sh100n

6

bl200n

sm50n

bh100n

7

sl50c

bm100c

sh200c

8

bl50c

sm100c

bh200c

9

sl100c

bm200c

sh50c

10

bl100c

sm200c

bh50c

11

sl200c

bm50c

sh100c

12

bl200c

sm50c

bh100c

 

Note: Les scenarii 13 à 36 forment des ensembles identiques aux problèmes 1-12, seulement l’ordre des problèmes est changé.

 

La dispersion de l'information est la variable contrôlée intra-sujet. La présence du SAD et du deuxième réseau sont des variables contrôlées inter-sujet. Les autres deux variables la dimension du problème et l'agrégation des données enregistreront des variations inter et intra-sujet selon un plan d'expérience équilibré.


déroulement d'une expérimentation
déroulement d'une expérimentation

Le déroulement d'une expérimentation est présenté dans la figure 9.

 

Figure 9. - Déroulement de l'expérimentation

 

 

Chaque sujet participe à trois expériences qui présentent des situations cartographiques différentes. Durant chaque expérience le sujet est invité à déplacer le nouveau site représenté par un carré clignotant (entouré par un cadre blanc) à l'endroit qu'il juge le meilleur, compte tenu de la situation cartographique qui lui est présenté. Les coordonnées sur l'axe vertical et horizontal de l'emplacement indiqué par le sujet sont enregistrées dans la case qui correspond à l'expérience en cours en appuyant sur le bouton "Enregistrer". Chaque enregistrement déclenche l'expérience suivante qui affiche une nouvelle image cartographique.


Comparaison
Comparaison

Les résultats comparatifs entre l’étude de référence et la réplication sur Internet sont donnés dans les tableaux 6 et 7.

 

Tableau 6 – Moyennes et écarts types des traitements expérimentaux pour chaque niveau des variables dans l’étude de référence et dans la réplication sur Internet.

 

 

Etude de référence

Réplication

 

N

Moyenne

Ecart type

N

Moyenne

Ecart type

Dispersion

 

 

 

 

 

 

faible

162

4,45

6,42

53

27,258

3,207

moyenne

161

4,42

6,2

53

29,355

3,433

forte

157

2,62

5,21

53

38,102

2,832

Taille du problème

 

 

 

 

 

 

petit

240

3,12

5,55

94

24,016

2,235

grand

240

4,57

6,39

65

39,582

3,053

Agrégation

 

 

 

 

 

 

50

119

3,08

4,4

52

37,223

3,388

100

121

3,6

5,72

58

32,872

3,006

200

119

3,79

6,21

49

24,970

3,241

400

121

4,89

7,71

0

-

-

Réseau propre

 

 

 

 

 

 

absent

 

 

 

72

34,194

2,751

présent

 

 

 

87

27,469

2,329

 

L’effet de la taille du problème sur la qualité de la décision a été significatif dans les deux études ce qui confirme l’hypothèse 1a.

L’effet de l’agrégation est significatif à un seuil p=0,01 et confirme l’hypothèse 2a, ce que l’étude originale n’a pas réussi ni pour les sens de l’effet ni pour son caractère significatif.

L’effet de dispersion à été moins significatif que dans l’étude de référence (p=0,05) et ne va pas dans le sens de l’hypothèse 3a. C’est l’effet d’apprentissage qui est plutôt mesuré par cette variable, dû à l’utilisation dans cette étude préliminaire uniquement des premiers 12 scénarii où la dispersion est croissante d’un problème à un autre.

Les effets d’interaction, en moyenne plus significatifs dans l’étude originale et analysés d’avantage à cause de la faiblesse des effets principaux, n’ont pas été significatifs dans cette réplication et ne méritent donc pas une discussion particulière. Ils sont tout même donnés dans le tableau pour permettre une analyse comparative.

 

Tableau 7. - Résumé des effets principaux et des interactions

 

Effet principal

Référence

Réplication

Dispersion

< ,001

0,05

Taille du problème

< ,001

< .001

Agrégation

,424

0,011

Dispersion*Taille

0,234

0,221

Dispersion*Agrégation

0,098

0,687

Taille*Agrégation

0,112

0,165

Concurrence*Dispersion

 

0,579

Concurrence*Agrégation

 

0,151

Concurrence*Taille

 

0,612

 

Les résultats obtenus pour l’instant sont encourageants. Ils confirment la plupart des hypothèses énoncées dans l’étude originale.



Recherches futures

Recherches futures
Problématique des SAD
Problématique des SAD

Le processus décisionnel qui a lieu entre l’exposition à l’information et la prise des décisions est étudié dans une double perspective, celle du gestionnaire (manager) et celle du client décideur. Une problématique complémentaire, préfigurée dans la troisième étude, est celle de l’impact des systèmes d’aide à la décision sur les utilisateurs. C’est une des trois principales directions de recherche en matière de SAD distinguées par Eom (1995, 1998). Elle s’est focalisée d’abord sur l’étude des différences individuelles et des styles cognitifs pour faire ensuite plus de place aux recherches qui portent sur les avantages perçus et facteurs de succès des SAD. Une récente revue des recherches empiriques qui portent sur ce sujet en marketing est faite par Dumoulin (2002). A part les études de terrain et les enquêtes y sont analysées sept expérimentations en laboratoire qui explorent les avantages perçus et facteurs de succès des SAD en marketing (Chakravarti, Mitchell et Staelin 1979 ; McIntyre 1982 ; Fripp 1985 ; Goslar, Green et Hughes 1986 ; Zinkhan, Joachimsthaler et Kinnear 1987 ; Van Bruggen, Smidts et Wierenga 1996, 1998).


Internet et les SADC
Internet et les SADC

Avec la diffusion des NTIC et du commerce électronique cette problématique s’élargit aux systèmes d’aide à la décision du client (SADC) qui deviennent un levier de différenciation des nouvelles formes de commerce et prend de l’ampleur dans les environnements électroniques on-line.


L’impact d’un SAD sur la performance décisionnelle
L’impact d’un SAD sur la performance décisionnelle

L’impact d’un SAD sur la performance décisionnelle a été introduit dans la troisième expérimentation comme variable supplémentaire par rapport à l’étude originale. Le problème à résoudre, la localisation de points de vente, est équivalent au positionnement des produits et des marques, un problème plus général et central en marketing. Cette expérience peut être transformée dans une simulation marketing en ligne, dans laquelle les sujets pourront prendre des décisions de positionnement, gérer un budget marketing et se confronter avec d’autres gestionnaires réels ou virtuels durant plusieurs périodes de simulation dans des environnements ou la disponibilité et la qualité du SAD sont contrôlées. Ainsi la problématique des SAD ne sera plus traité tangentiellement mais pleinement et les résultats recueillis permettront de tester la validité externe d’expérimentations comme celle que Van Bruggen, Smidts et Wierenga (1996, 1998) ont effectuées en laboratoire au moyen du simulateur Markstrat (Larréché et Gatignon, 1990).


L'expérimentation à l’aide de simulations et  mesure dans des problèmes de stratégie
L'expérimentation à l’aide de simulations et  mesure dans des problèmes de stratégie

L'expérimentation à l’aide de simulations peut contribuer à alléger les difficultés de mesure rencontrées pendant longtemps par la recherche dans des problèmes de stratégie et planification en marketing et constitue une alternative puissante aux méthodologies basées sur enquêtes dans la collecte des données primaires (Malhotra, Peterson et Kleiser 1999). La simulation marketing qu’on a récemment mise en ligne à l’adresse http://claree.univ-lille1.fr/strateg_mono/srategy.jsp s’inspire de la simulation Markstrat pour les aspects transactionnels du marketing et développe la dimension relationnelle avec des politiques de fidélisation par des programmes de satisfaction client, de développement de switching costs (cartes de fidélité) et de communication relationnelle (campagnes de marketing direct). Cette simulation intègre des SAD en ligne pour soutenir les politiques offensives et défensives, évaluer les revenus à court et long terme [11] . En administrant des environnements caractérisés par des niveaux de turbulence et croissance variables, cette simulation pourra servir à répliquer en ligne des expérimentations comme celle de Glazer et Weiss (1993) pour faire ressortir des traitements différents de l'information et aussi pour explorer d’éventuelles variations dans le poids accordé aux stratégies offensives et défensives et aux aspects transactionnels et relationnels du marketing.



Références

Références
Références
Références

Abdel-Khalik A. R. (1973), The effect of aggregating accounting reports on the quality of the lending decision: An empirical investigation, Journal of Accounting Research, Supplement, 104-138.

Alba J., Lynch B., Weitz C., Janiszewski C., Lutz R., Sawyer A., Wood A., (1997),  Interactive Home Shopping: Consumer, Retailer, and Manufacturer Incentives to Participate in Electronic Marketplaces, Journal of Marketing, 61, 3, 38-53

Ballou R. H. (1994), Measuring transport costing error in customer aggregation for facility location., Transportation Journal, Spring, 49-59.

Barefield,R. M. (1972). The effect of aggregation on decision making success: A laboratory study. Journal of Accounting Research, Autumn, 229-242.

Benbasat I., et Dexter, A. S. (1979), Value and event approaches to accounting: An experimental evaluation.,  Accounting Review, 54, 735-749

Berners-Lee, T., R. Cailliau, N. Pellow, and A. Secret (1993), "The World-Wide Web Initiative," dans Proceedings 1993 International Networking Conference, http://info.isoc.org/ftp/ isoc/inet/inet93/papers/DBC.Berners-Lee

Burrough P. A. (1992), Development of intelligent geographical information systems. International Journal of Geographic Information Systems,  6 (1), 1-11.

Bucklin R.E., D.R. Lehman, J.D.C. Little (1998), From Decision Support to Decision Automation: A 2020 Vision, Marketing Letters, 9, 3, 235-246.

Cases A-S (2002), Effets des combinaisons de réducteurs sur le risque perçu dans le contexte de l’achat électronique sur Internet. Actes du 18ème Congrès de l’Association Française du Marketing, Lille, 2, 273-286.

Calciu M. et F. Salerno (2002), Apprentissage interactif en gestion sur Internet – un cadre basé modèles, Innovations pédagogiques et la formation en gestion, Colloque CIDEGEF, Montréal, 10-12 octobre.

Calder Bobby J., Lynn W. Phillips, et Alice M. Tybout. (1981), Designing Research for Application., Journal of Consumer Research, 8 (September): 197-207.

Campbell D.J. (1988), Task complexity: A review and analysis., Academy of Management Review, 13, 1, 40-52. 

Chakravarti D., Mitchell A. et Staelin R. (1979), Judgment Based Marketing Decision Models : An Experimental Investigation of The Decision Calculus Approach. Management Science , 25, 3, 251-265.

Chervany N., et Dickson, G. (1974), An experimental evaluation of information overload in the production environment, Management Science, 20, 10, 1335-1344.

Cook G. J. (1993), An empirical investigation of information search strategies with implications for decision support system design., Decision Sciences, 24, 3, 683-697.

Crossland M. D., Wynne, B. E. et Perkins, W. C. (1995), Spatial decision support systems: An overview of technology and a test of efficacy., Decision Support Systems, 14, 219-235.

Current J. R. et Schilling D. A. (1987), Elimination of source A and B errors in P-median location problems., Geographical Analysis, 19, 2, 95-110.

Dreze X. et F. Zufrieden (1997), Testing Web Site Design and Promotional Content, Journal of Advertising Research, March-April, 77-91 .

Demoulin N. (2002), Le succès des Systèmes d’Aide à la Gestion Marketing (SAGM) : une évaluation des recherches empiriques. Actes du 18ème Congrès de l’Association Française du Marketing, Lille, 2, 671-691.

Eom S.B. (1995), Decision support systems research: reference disciplines and a cumulative tradition., Omega Int. J. Management Sci., 23, 511-523.

Eom S.B. (1998), The Intellectual Development and Structure of Decision Support Systems 1991-1995), Omega Int. J. Management Sci., 26, 639-657.

Fripp J. (1985), How Effective are Models ? International Journal of Management Science (OMEGA), 13, 19-28.

Galan J-P. et Sabadie W. (2001), Les déterminants de la satisfaction de l’internaute : Une étude exploratoire. Actes du 17ème Congrès de l’Association Française du Marketing, Deauville, CD-Rom.

Galan J-P. (2002), L’analyse des fichiers log pour étudier l’impact de la musique sur le comportement des visiteurs d’un site Web culturel, Actes du 18ème Congrès de l’Association Française du Marketing, Lille, 2, 255-272.

Glazer R. (1991), Marketing in an Information-Intensive Environment: Strategic Implications for Knowledge as an Asset, Journal of Marketing, 55 (October), 1-20.

Glazer R. et A.M. Weiss. (1993), Marketing in Turbulent Environments: Decision Process and the Time-Sensitivity of Information., Journal of Marketing Research, 30 (November): 509-521.

Gonzales C. (2001), Satisfaction du consommateur suite à la visite d’un catalogue électronique: Impact de la lisibilité et de la stimulation, Thèse de Doctorat en Sciences de Gestion, DMSP, Université de Paris-Dauphine.

Goslar M.D., Green G.I. et Hughes T.H. (1986), Decision Support Systems : An Empirical Assessment for Decision Making. Decision Sciences, 17, 79-91.

Hoffman, D. L et T.P. Novak (1996), Marketing in hypermedia computer-mediated environments:  Conceptual foundations, Journal of Marketing, 60,3, 50-68

House R. G. et Jamie K. D. (1981), Measuring the impact of alternative market classification system in distribution planning., Journal of Business Logistics, 2(20), 1-31.

Janiszewski C. (1990), The Influence of Nonattended Material on the Processing of Advertising Claims, Journal of Marketing Research, 27 (August), 263-278.

Janiszewski C. (1998), The influence of display characteristics on visual exploratory search behavior, Journal of Consumer Research, 25, Dec, 290-301.

Lambin J-J. (1990), La Recherche Marketing, Paris, McGraw - Hill.

Lynch J.G. Jr. (1982), On the External Validity of Experiments in Consumer Research, Journal of Consumer Research, 9, December, 225-39.

Larréché J-C. et H. Gatignon (1990) Markstrat 2 - A Marketing Strategy Simulation. Instructors Manual. The Sceintific Press, Redwood City;

Lynch J.G. Jr. (1999), Theory and external validity, Academy of Marketing Science. Journal, 3, Summer, 367-376.

Mahajan V. et J. Wind (1999), Rx for marketing research, Marketing Research, 3, Fall, 6-13.

Malhotra N.K., M. Peterson, S.B. Kleiser (1999), Marketing research: A state-of-the-art review and directions for the twenty-first century, Academy of Marketing Science. Journal, Spring, 2, 160-183.

McGrath J. E. et D. Brinberg. (1983), External Validity and the Research Process: A Comment on the Calder/Lynch Dialogue., Journal of Consumer Research, 10, June, 115-124.

McMaster R. B. et Shea K. S. (1992), Generalization in digital cartography. Washington, DC: Association of American Geographers.

McIntyre S.H. (1982), An Experimental Study of the Impact of Judgment-Based Marketing Models. Management Science, 28, 1, 17-33.

Minch R. P. et Sanders G. L. (1986), Computerized information systems supporting multicriteria decision making., Decision Sciences, 17, 395-413.

Moorthy S.K. (1993), Theoretical Modelling in Marketing. Journal of Marketing, 57, April, 92-106

Payne J. W. (1976), Task complexity and contingent processing in decision making: An information search and protocol analysis. Organizational Behavior and Human Performance, 16, 366-387.

Payne J. W., Bettman, J. R., et Johnson, E. J. (1988), Adaptive strategy selection in decision making. Journal of Experimental Psychology: Learning, Memory, and Cognition, 15, 3, 534-552.

Reich et Huff (1991), Customer-oriented strategic systems, J. Strategic Info.Syst., I, 29-37.

Robinson E. P. Jr. et Swink M. (1994), Reason based solutions and the complexity of distribution network design problems. European Journal of Operational Research, 76, 393-409.

Smelcer J. et Carmel E. (1997), The effectiveness of different representations for managerial problem solving: Comparing maps and tables. Decision Sciences, 28, 2, 391-420.

Swink M., et Robinson E. P. (1997), Complexity factors and intuition-based methods for facility network design. Decision Sciences, 28 (3), 583-614.

Swink M. et C. Speier (1999), Presenting geographic information: Effects of data aggregation, dispersion, and users' spatial orientation. Decision Sciences, Winter 1, 169-195.

Taylor P. B. et Iwanek R. (1980), Intuitive versus optimal solutions to some problems in distribution. OMEGA, 8, 2, 183-192.

Van Bruggen G.H., Smidts A. et Wierenga B. (1996), The Impact of the Quality of a Marketing Decision Support System : An Experimental Study. International Journal of Research in Marketing, 13, 4, 331-343.

Van Bruggen G.H., Smidts A. et Wierenga B. (1998), Improving Decision Making by Means of Marketing Decision Support Systems. Management Science, 44, 5, 645-658.

Winer R.S. (1999), Experimentation in the 21st century: The importance of external validity. Academy of Marketing Science. Journal, Summer, 3, 349-358

Wood R. (1986), Task complexity: Definition of the construct. Organizational Behavior and Human Decision Processes, 37, 60-82.

Zinkhan G.M., Joachimsthaler E.A. et Kinnear T.C. (1987), Individual Differences and Marketing Decision Support System Usage and Satisfaction. Journal of Marketing, 14, Mai, 208-14

Notes

Notes

[1] Selon Alba et alii (1997, p.38) ce média pourrait « changer radicalement la manière dont les gens achètent ainsi que la structure des industries des biens de consommation et de la distribution »

[2] Alba et alii (1997) considèrent que, dans un contexte de téléachat, l’interactivité peut être conceptualisée comme un construit qui mesure sur un continuum la qualité de la communication bidirectionnelle entre deux parties. Vu ainsi elle a deux dimensions le temps de réponse et la contingence de la réponse. Cette dernière exprime la mesure dans laquelle la réponse d’une partie est fonction de la réponse faite par l’autre partie.

[3] Un exemple d'application d'effets (EA) est l'étude de la relation entre le prix et la qualité perçue. Les managers en marketing veulent savoir si une telle relation existe et si les conditions de frontière (catégories de produits, intervalles de prix). Pour être sûr qu'une telle relation existe, les résultats montrant une relation positive doivent être généralisables au monde réel, c à d en dehors du cadre de la recherche expérimentale.

 

Les auteurs considèrent qu'il y a des implications de cette distinction dans la sélection des répondants, dans l'opérationnalisation des variables indépendantes et dépendants, dans la constitution de la recherche et dans la mise en place de la recherche.

Les études de type EA ont particulièrement besoin de répondants qui représentent leurs homologues du monde réel contrairement aux TA qui peuvent utiliser n'importe quelle population de répondants, préférablement aussi homogène que possible pour un test fort de la théorie. Les variables utilisées dans EA doivent correspondre le plus possible au monde réel, tandis que les variables en TA doivent correspondre aux besoins de la théorie. La constitution de la recherche utilisée en EA a aussi besoin de correspondre autant que possible avec les contextes pour lesquels est désirée la généralisation, tandis qu'en TA la constitution peut être artificielle car le but est de créer un environnement libre de sources externes de variation qui pourraient affecter négativement la validité interne.

Les vrais plans d'expérience sont préférés pour la recherche TA tandis que EA peut utiliser n'importe quel plan qui est adapté au contexte du monde réel inclusivement des expérimentations "naturelles".

 

[4] La différence est analogue à celle qui existe entre les modèles d'aide à la décision et les modèles théoriques analysée par Moorthy (1993).

[5] Le HTML dynamique, qui introduit le concept de calques et les feuilles de style en cascade, marque une évolution par rapport au HTML « statique » qui a lancé le www.

[6] L'adresse web est http : //193.51.55.236/research/web_attention

[7] Le "mouse-tracking" est réalisé dans un esprit client-serveur par l'interaction de deux programmes, un au niveau client qui exploite la programmation événementielle en Javascript, et l'autre au niveau du serveur écrit en Perl. Le premier enregistre les mouvements de la souris (détectés par les zones sensibles de chaque page) dans un champ de formulaire et le deuxième enregistre par le mécanisme des CGI les informations accumulées dans ce champ dans un fichier sur le serveur.

[8] L'adresse web de cette étude est http : //193.51.55.236/~auteur/research/web_location

[9] dans Swink et Speier (1999) les sujets devaient indiquer le nombre et la localisation d’entrepôts qui minimise les coûts et satisfait la demande des consommateurs, dans la réplication sur Internet les sujets devaient indiquer la localisation d’un nouveau point de vente afin de maximiser la part de marché.

[10] Mutatis mutandis le problème peut être transposé aux situations d'emplacement de stimuli visuels par rapport à d'autres stimuli concurrents dans un affichage.