Positionnement optimum dans l’espace géographique et perceptuel. Quelques algorithmes pour répertorier les meilleurs emplacements.

Le papier développe une méthode de localisation optimum suggérée par Drezner (1994). La méthode adapte une procédure classique de minimisation des distances pondérées (Weiszfeld, 1937) à un problème de maximisation de la part de marché en utilisant l’attractivité et la localisation. Quelques améliorations de la méthode et des propriétés non discutées dans le papier original sont présentées. En s’appuyant sur la similarité conceptuelle entre l’espace géographique et l’espace perceptuel on étend la méthode à l’espace multidimensionnel perceptuel. En reconnaissant la tendance parfois embarrassante de l’algorithme de Weiszfeld à converger vers des optimums locaux, plusieurs procédures sont suggérées pour trouver la localisation optimum globale. La même convergence est finalement exploitée pour trouver des procédures efficaces capables d’identifier tous les optimums locaux.
Positionnement optimum dans l’espace géographique et perceptuel. Quelques algorithmes pour répertorier les meilleurs emplacements. Mihai Calciu et Gregory Vermeersch Congrès de l’AFM – Saint Malo 2004
Le papier développe une méthode de localisation optimum suggérée par Drezner (1994). La méthode adapte une procédure classique de minimisation des distances pondérées (Weiszfeld, 1937) à un problème de maximisation de la part de marché en utilisant l’attractivité et la localisation. Quelques améliorations de la méthode et des propriétés non discutées dans le papier original sont présentées. En s’appuyant sur la similarité conceptuelle entre l’espace géographique et l’espace perceptuel on étend la méthode à l’espace multidimensionnel perceptuel. En reconnaissant la tendance parfois embarrassante de l’algorithme de Weiszfeld à converger vers des optimums locaux, plusieurs procédures sont suggérées pour trouver la localisation optimum globale. La même convergence est finalement exploitée pour trouver des procédures efficaces capables d’identifier tous les optimums locaux.

Introduction

Introduction
Un problème générique et dual en marketing
Un problème générique et dual en marketing

La localisation et/ou le positionnement d’un point d’offre est un problème générique de marketing qui exige des formes de représentation adaptées et des modèles d’aide à la décision. Le problème est conceptuellement le même qu’il s’agisse de l’espace géographique des unités de distribution ou de l’espace perceptuel où sont positionnées les marques.

L’objectif poursuivi est d’attirer le consommateur sachant que son choix est influencé par  l’attractivité de l’offre et de l’éloignement de celle-ci par rapport aux attentes du consommateur. Intuitivement les modèles les mieux adaptés pour représenter ce type de comportement de choix sont les modèles gravitaires.


Les modèles gravitaires
Les modèles gravitaires

Les modèles gravitaires et plus précisément les modèles probabilistes d'analyse spatiale (également appelés modèles de préférence révélée) permettent de déterminer la probabilité qu'un acheteur fréquente un point de vente à partir de l'utilité qu'il  lui associe. L'utilité varie positivement avec une mesure d'attractivité et inversement avec une certaine puissance de la distance. Les consommateurs compensent la désutilité causée par la distance supplémentaire à parcourir avec l'utilité procurée par d’avantage d'attractivité.

Le précurseur de ces modèles est le modèle gravitaire de Reilly (1931) qui fixe la limite entre deux centres de distribution en fonction de la distance qui les sépare et de leurs dimensions respectives. Les formulations probabilistes les plus connues en marketing sont le modèle de Huff (1964, 1966) et le modèle MCI (Multiplicative Competitive Interaction) de Nakanishi et Cooper (1974). Ce dernier permet, en outre, de mesurer l'attractivité d'un point de vente comme une composante de plusieurs variables.

Cliquet (1990) a  proposé un modèle interactif de concurrence spatiale subjectif qui permet de mesurer l'attractivité d'un point de vente à l'aide de données subjectives à la place des données objectives habituellement utilisées.

Certains auteurs proposent d'utiliser le modèle logit multinomial (MNL) plutôt que le modèle MCI parce qu'il est mieux adapté à des problèmes de choix de type discret. La notion de modèles de choix spatial tels que MNL ou MCI ne se limite pas à l’espace géographique, mais elle s’étend à toutes les situations ou les préférences sont des fonctions compensatoires des perceptions des produits qui à leur tour ont une représentation spatiale.


Espace perceptuel et espace géographique
Espace perceptuel et espace géographique

Pour l’interaction entre l’offre et la demande l’espace géographique n’est qu’un terrain d’investigation mineur comparé à l’espace perceptuel. Ce dernier constitue une forme de représentation du marché privilégiée en marketing.

Carpenter (1989, p. 1031) considère que “représenter les marques dans un espace bidimensionnel est un fait commun et bien accepté (Johnson 1971; Urban et Hauser 1980; Wind 1982), comme le sont aussi les méthodes psychométriques qui servent à construire ces espaces et à calculer les positions des marques (Cooper 1983; DeSarbo et Rao 1986; Green et Rao 1972)". Résumer les préférences des acheteurs par des distributions unimodales de points idéaux individuels est aussi un fait commun et bien accepté (Cooper 1983, Green, Carmone, Smith 1989). Elles expriment la distribution des attentes des consommateurs dans l’espace des produits.

Traditionnellement ces représentations spatiales obtenues par les méthodes factorielles ou par les techniques MDS(MultiDimensional Scaling) se limitent à déterminer les positions de l’offre et parfois de la demande sans traiter les phénomènes de masse de manière explicite et différentiée.

DeSarbo, Kim, Choi et Spaulding (2002) développent une méthodologie spatiale qui incorpore l’attraction des marques, les points idéaux des segments et la masse à l’aide d’un modèle spatial gravitaire de l’utilité du consommateur.


Positionement définition
Positionement définition

Ces développements favorisent les rapprochements entre les concepts de localisation et positionnement.

Le positionnement est un concept fondamental en marketing management (Kotler, 2000; Hooley et al., 1998). Il s’est développé dans les années 1960 et au début des années 1970 en liaison avec la segmentation des marchés, le ciblage et les changements dans la structure du marché (Sekhar, 1989).

La popularisation du terme est attribuée par de nombreux auteurs (Kalafatis, Tsogas et Blankson 2000 ; Johansson 1985)  à Ries et Trout qui dans leur ouvrage (1986) défendent l’idée que le positionnement agit non pas sur le produit ou le service mais plutôt sur l’esprit du prospect.

Ce point de vue est adopté aussi par Kotler (2000) qui suggère la définition suivante: "Le positionnement est l’action de conception de l’offre et de l’image d’une entreprise pour occuper une place distincte dans l’esprit du marché cible". A l’aide du positionnement on cherche à définir, modifier et contrôler les perceptions du consommateur concernant un produit, un service, une entreprise, une institution ou même une personne.

Au sens large le positionnement est un processus itératif qui exige des actions délibérées et proactives. Il résulte de l’interaction entre l’entreprise, ses concurrents et les consommateurs cibles.


Positionnement et localisation raprochements
Positionnement et localisation raprochements

Même si au sens large il y a des zones de non congruence entre les termes "positionnement" et "localisation" en marketing, au sens restreint leurs définitions se rapprochent beaucoup. Dillon et al. (1986) par exemple considèrent que "les stratégies de positionnement (repositionnement) peuvent être caractérisées comme des tentatives de déplacer une marque vers une localisation donnée dans le cadre d’une carte perceptuelle".

La localisation des points de vente ou de service est l'une des décisions les plus importantes que doivent prendre les détaillants, les banques, les chaînes hôtelières et de nombreux autres opérateurs. L'emplacement conditionne les ventes, la part de marché et le profit (Kimes et Fitzsimmons, 1990). Ce choix est également crucial car il entraîne un investissement important.

Enfin, la localisation peut constituer un élément de différenciation et une source d'avantage concurrentiel sur un marché où se multiplient des points de vente commercialisant des produits très similaires (Craig, Ghosh, Lafferty, 1984).


Analyse de la localisation et les recherches opérationnelles
Analyse de la localisation et les recherches opérationnelles

La théorie de la localisation est un vaste champ en recherche  opérationnelle. Pour un aperçu récent de l’état de l’art et des tendances futures en analyse de la localisation on peut consulter Giannikos et Nickel (Eds., 1996) ou Scaparra et Scutella (2001). Une vaste bibliographie sur l’analyse de la localisation est publiée en ligne par Travor Hale. Elle contient une liste de plus de 3400 références sur la science de la localisation et sur des sujets connexes. Il y a une grande variété de problèmes de localisation qui ont étés identifiés. Ils varient sur le nombre d’unités à localiser, sur le type de problème de localisation (s’il s’agit d’un problème continu, en réseau ou discret), sur la mesure de distance utilisée ou sur la nature ou le nombre des fonctions objectif et des restrictions. Plusieurs schémas de classification ont été suggérés. Pour une discussion plus détaillée sur le sujet on peut se référer à Hamacher, Nickel et Schneider (1996)


Le problème à résoudre et sa solution originale
Le problème à résoudre et sa solution originale

Le problème qui sera traité ici cherche la localisation optimum de nouvelles unités par rapport à des unités existantes et à des utilisateurs. Les nouvelles unités peuvent être des unités de distribution dans l’espace géographique ou des marques, produits ou services dans l’espace perceptuel. L’axiomatique utilisée est celle des modèles gravitaires.

Pour résoudre le problème de localisation optimum évoqué, on adapte une solution qui a été suggérée par Drezner (1994) pour l’espace géographique bidimensionnel. Le modèle opérationnalisé indique la localisation optimum d’un nouveau point d’offre (un produit, un service ou une unité de distribution) dans un espace concurrentiel. Il prend en compte l’offre présente de la société, celle de ses concurrents ainsi que la distribution spatiale de la demande.

Outre la localisation optimum, le modèle indique la part de marché du réseau (gamme de produits) propre obtenue grâce à l’introduction du nouveau point d’offre.


Extensions suggérées
Extensions suggérées

Une extension de la solution de Drezner (1994) pour l’espace multidimensionnel est présentée, elle est basée sur la similarité conceptuelle entre l’espace géographique et perceptuel.

En reconnaissant la tendance embarrassante de l’algorithme utilisé dans le papier original de converger vers des optimums locaux, plusieurs procédures de recherche de l’optimum global sont suggérées et adaptées à l’espace bi-, tri- et multidimensionnel.

La même tendance de convergence est finalement exploitée pour trouver des procédures efficaces pour identifier et répertorier tous les optimums locaux.

 


Le modèle de Drezner – Une reformulation centrée sur le problème

Le modèle de Drezner – Une reformulation centrée sur le problème
Présentation
Présentation

La méthode de Drezner (1994) utilise les formulations de Huff (1966) ou Nakanishi et Cooper (1974) pour représenter la part de marché et l’attractivité d’une nouvelle unité de distribution. Elle introduit des aménagements afin de permettre qu’un certain nombre d’unités soient considérées comme faisant partie du propre réseau de distribution. En utilisant une série de transformations algébriques elle réduit le problème de localisation d’une nouvelle unité à une situation où l’optimisation de la part de marché dépend uniquement de la position de cette unité et d’une série de valeurs constantes et elle utilise une procédure de minimisation des distances euclidiennes pondérées développée bien avant par Weiszfeld (1937).


Problem centric vs. techno centric
Problem centric vs. techno centric

Les formules utilisées dans le papier original ont été ajustées afin de donner une meilleure vision managériale du problème et de ses solutions. Une bonne compréhension managériale peut faciliter l’adoption des modèles et encourager le développement de solutions par la suite. Il est connu que le faible taux d’adoption des résultats de la recherche marketing en général (Myers, Gryser et Massy, 1979; Monroe 1986) et des modèles en particulier est dû à une mauvaise communication de la part des analystes qui sont trop "techno-centrés"[1] au lieu d’être "centrés sur le problème" (Geoffrion, 1987).

C’est la raison pour laquelle nous donnons ici une traduction "centrée sur le problème" de la formulation originale du modèle. Elle s’attache à distinguer l’attraction générée par la nouvelle unité de distribution de celle des autres unités du réseau propre et de celle des unités concurrentes. Pour donner plus de lisibilité aux calculs d’un point de vue managérial, on cherche à isoler et nommer des indicateurs qui encapsulent progressivement des éléments de calcul constants et variables.


Calcul des éléments constants
Calcul des éléments constants

Les calculs suivent plusieurs étapes:

1) Sont calculés d'abord les éléments constants dans la part de marché pour chaque point de demande i, avant l'emplacement du  nouveau point d’offre. Il s'agit de : l'attractivité du réseau (portefeuille) concurrent dans le point de demande i

 

ai =              (1)

et de l'attractivité de l'offre tout entière sur le point de demande i :

bi =            (2)

Sj = attractivité de l'unité j, dij = distance entre i et l'unité j, l = sensibilité à la distance, m = nombre d'unités du réseau propre et n = nombre d'unités dans le territoire (m<n).

 


La part de marché des concurrents dans chaque point de demande
La part de marché des concurrents dans chaque point de demande

2) En fonction de la position du nouveau point d’offre on calcule, pour chaque point de demande, la part de la demande couverte par les concurrents csi. Elle correspond logiquement au rapport entre l'attraction des concurrents et l'attraction totale exercée sur un point de demande i.

 

csi = eux/(nouveau + nous + eux)

ce qui peut être ramené algébriquement à une formule de calcul simple :

csi = ai/(ni + bi)= ai/( + bi)         (3)

ni = l’attraction de la nouvelle unité sur le point de demande i (ni = ),  Sn = attractivité du nouveau site, din = distance entre i et le nouveau site, c’est une fonction des coordonnées x et y du nouveau point.

 

Cela peut être exprimé algébriquement par la formule suivante:

csi = ai*(dinl/Sn)/(1+bi*(dinl/Sn))         ou autrement

csi = ai*dinl/(Sn + bi*dinl)        (4)


La fonction objectif
La fonction objectif

3) L'algorithme d'optimisation doit trouver la position du nouveau site qui minimise  la demande couverte par le réseau concurrent et implicitement maximise la demande couverte par le réseau propre.[2].

 

Min { F(x, y) = S Di csi (x,y)}

Di = Demande dans le point i

 

Pour une taille (attractivité) donnée de la nouvelle unité de distribution, F dépend uniquement de la distance du nouveau point d’offre par rapport à tous les points de demande, ce qui dans un espace bidimensionnel dépend des coordonnées horizontales et verticales de ce point.

 

La minimisation de F(di) peut être obtenue progressivement en égalisant à zéro les dérivées partielles de F par x et séparément par y.

 

=   =  =  =0    (5)

 

Cette expression peut être réduite aux équations de sommes pondérées suivantes:

 

=0; =0;       (6)

wi(x,y) =   (7)

et di = f(x,y)

 

le l de l’équation 5 peut être annulé en équation 6.

 

La formule 7 peut aussi être exprimée ainsi:

 

wi(x,y) = = =nsi csi  (7)

nsi est la part de marché du nouveau point d’offre sur le point de demande i.

 

Les x et les y sont résolus de manière implicite dans l’équation 6 :

 

x = ;    y =   (8)

A partir d’une position donnée, les dérivées partielles identifient le plus proche optimum sur chacune des deux dimensions. Comme on le montre plus tard, conjointement elles indiquent la meilleure direction vers l’optimum local le plus proche.


Analogies avec le problème "minisum"
Analogies avec le problème "minisum"

Ce problème est similaire au problème plus général de localisation connu sous le nom "minisum" et qu’on appelle souvent le problème de Fermat-Weber. Il trouve la localisation qui minimise la somme des distances pondérées vers un ensemble de points de demande. Dans des problèmes du monde réel les distances pondérées peuvent être vues comme des coûts. Minimiser la somme des distances pondérées correspond alors à la minimisation du coût total (Brimberg et Love, 1993).

Si la fonction objectif du problème Fermat-Weber est convexe (car c’est une somme pondérée de fonctions de distance convexes), dans le problème de Drezner la fonction objectif n’est pas convexe, car les « poids » ne sont pas des valeurs constantes vu qu’ils dépendent de la position du point à placer. Ceci signifie que la surface de la solution est une combinaison de formes concaves et convexes (“monts” et “vallées”) dont les pics sont des optimums locaux et les fonds creux sont des minimums locaux. L’optimum global se trouve parmi les minimums locaux, quand une minimisation est demandée et parmi les maximums locaux quand il s’agit d’une maximisation. Techniquement et en analogie avec le problème bien connu de Fermat-Weber, le problème de Drezner est exprimé comme la minimisation de la somme des parts de marché des concurrents. En termes managériaux, l’interprétation complémentaire de maximisation de la part de marché du réseau propre est certainement plus pertinente. Elle correspond à un renversement de l’espace des solutions qui signifie que les méthodes de recherche d’optimum  en empruntant un itinéraire de descente optimisé peuvent être vues comme des méthodes d’ascension dans l’espace renversé.


Algorithmes d’optimisation alternatifs

Algorithmes d’optimisation alternatifs
Procédure de Weiszfeld
Procédure de Weiszfeld

La méthode d’optimisation suggérée par Drezner (1994) applique la procédure de minimisation de distances euclidiennes pondérées de Weiszfeld (1937)[3].

L’algorithme d’optimisation utilise un point de départ arbitraire (x(0), y(0)) pour calculer de manière itérative la formule (9) qui est l’interprétation récurrente de la formule (8)

 

x(r+1) = ;    y(r+1) =     (9)

Ce processus itératif continue jusqu’au moment où un optimum local est trouvé.

 

En fait cet algorithme trouve le meilleur point dans la direction de la plus grande pente vers la vallée qui conduit à un minimum local, et ensuite avance de manière itérative en trouvant le prochain meilleur point jusqu’au moment ou le minimum local est atteint. La particularité de cet algorithme est que la longueur et la direction du pas d’avancement dépendent strictement de la position courante.


Similarités avec la méthode du gradient
Similarités avec la méthode du gradient

On peut remarquer que cette méthode ressemble à une méthode plus générale utilisée dans la résolution des problèmes d’optimisation non linéaire, il s’agit de la méthode du gradient.

 peut être vu comme le gradient pour x et le gradient pour y.

La différence des algorithmes d’optimisation classiques à base de gradient est que le gradient est seulement utilisé pour indiquer la direction du pas d’optimisation prochain.

L’algorithme de Weiszfeld profite du cas particulier de la minimisation d’une somme de distances pondérées et utilise le gradient aussi pour calculer la longueur du pas qui correspond à chaque étape. Cette manière de procéder présente des avantages et des inconvénients. Elle évite l’omission de certains optimums locaux mais en même temps elle est moins efficace pour trouver l’optimum global. L’avantage de la méthode du gradient est qu’elle ajuste dynamiquement la longueur du prochain pas tout en permettant de passer par-dessus des optimums locaux dans la recherche de la meilleure solution.


Comparaison de performance: Weiszfeld vs. Gradient – les données
Comparaison de performance: Weiszfeld vs. Gradient – les données

Pour comparer les résultats des deux algorithmes, les données originales du travail de Drezner sont utilisées. Il s’agit de sept unités de distribution avec des attractivités (surface, ou produit MCI) Sj = 1 et de 100 points de demande répartis uniformément sur une grille avec un pouvoir d’achat Bi = 1. Aucune des unités de distribution n’appartient à la chaîne pour laquelle la situation doit être optimisée. On utilise la puissance l=2 pour caractériser la sensibilité à la distance. Cet exemple présente une situation bien particulière où les points d’offre et de demande ont la même taille et où la demande est uniformément distribuée dans l’espace. Cela mène à un relief relativement lisse de l’espace des solutions où les optimums locaux et l’optimum global sont difficiles à apercevoir comme le montre la figure 1.a.  Cet espace représente les variations des parts de marché avec la localisation d’un nouveau point d’offre. Dans des situations réelles de marché le relief peut être beaucoup plus varié, comme l’illustre la figure 3.

 

Figure 1. L’espace des résultats dans le problème de Drezner

(a) Vue à l’échelle réelle

(b) Vue en zoom

 

Un zoom sur le même espace des résultats (Fig. 1 b) donne une vue plus claire sur les onze optimums répertoriés dans le tableau 1.


Comparaison des performances:  Weiszfeld vs. Gradient
Comparaison des performances:  Weiszfeld vs. Gradient

Pour comparer leurs performances, les deux algorithmes sont appliqués aux données originales de  Drezner.

Tableau 1 – Comparaison de deux algorithmes de localisation optimum

Optimum local

Part de marché capturée

 

Fréquence de convergence des points de départ

 

Coordonnées

Aléatoire

(Weiszfeld)

Systématique (Weiszfeld)

Systématique

(gradient)

Numéro

X

y

1

5,59

5,54

12,93%

12

14

43

2

6,62

5,53

12,85%

37

36

29

3

5,59

4,53

12,81%

9

7

13

4

4,56

5,54

12,69%

11

13

5

5

4,53

4,51

12,59%

3

1

4

6

3,50

3,49

12,53%

2

1

4

7

3,49

2,55

12,50%

7

5

2

8

2,54

3,49

12,49%

3

6

0

9

2,56

2,56

12,46%

11

9

0

10

4,68

3,54

12,35%

3

4

0

11

3,53

4,54

12,30%

2

4

0

 

 

 

Moyenne :

12,720%

12,716%

12,841%

 

Les quatre premières colonnes du tableau 1 reflètent la première expérience faite par Drezner, dans laquelle il génère 100 points de départ aléatoires et où il dénombre les cas de convergence vers chacun des onze optimums locaux. On a répliqué cette expérience en utilisant une grille de 100 points de départ avec X1(0,5; 0,5) à X100 (9,5; 9,5) et on a appliqué les deux algorithmes de Weiszfeld et du gradient aux mêmes données. Les résultats montrent que l’algorithme du gradient offre une meilleure performance quand il s’agit de trouver l’optimum global, il y arrive dans 43% des cas alors que le taux de réussite de Weiszfeld est de seulement 14%. On peut constater aussi que l’utilisation d’une grille systématique pour générer les points de départ donne des résultats légèrement différents par rapport à l’expérience originale qui utilise des points de départ aléatoires. Evidemment les résultats obtenus sont spécifiques au contexte et ne doivent pas être interprétés comme des généralisations.

La seule généralisation qui peut être déduite de ces expériences est qu’à la différence de la méthode du gradient, l’algorithme de Weiszfeld semble converger de manière systématique vers l’optimum local le plus proche du point de départ utilisé dans la recherche.


La convergence systématique de la méthode de Weiszfeld vers des optimums locaux – Un test empirique
La convergence systématique de la méthode de Weiszfeld vers des optimums locaux – Un test empirique

Pour vérifier visuellement le comportement de convergence vers l’optimum le plus proche observé sur l’algorithme de Weiszfeld, on a affecté tous les points de départ aux optimums locaux qu’ils trouvent en utilisant la procédure de Weiszfeld. Des calculs ont été effectués en utilisant des grilles de points de départ en nombre croissant de 100 à 400 et puis à 1600. L’algorithme a été appliqué à chacune de ces grilles et pour chaque point de départ on a enregistré la localisation optimum vers laquelle la procédure a convergé.

Figure 2 – Illustration de la convergence systématique de la  procédure de Weiszfeld vers l’optimum local le plus proche

 

Dans la figure 2, 400 points de départ sont étiquetés avec le numéro du point optimum vers lequel ils convergent[4]. Il apparaît clairement que chaque point de départ semble associé à l’optimum le plus proche dans le sens des distances Manhattan[5]. C’est un résultat intéressant qui mérite d’être analysé dans des développements futurs. Il ouvre la possibilité de partitionner l’espace en zones de convergence autour des optimums locaux qui rassemblent tous les points les plus proches dans le sens de la mesure de distance dérivée du modèle gravitaire utilisé. En termes géométriques ce partitionnement correspond à des diagrammes de Voronoï généralisés par rapport à la métrique de distance et au nombre de dimensions de l’espace. Dans la figure 2, par exemple, il s’agit d’un diagramme de Voronoï pour une métrique rectangulaire (distances Manhattan) dans l’espace bidimensionnel. Les diagrammes de Voronoï sont peut-être les structures les plus célèbres en «géométrie computationelle». Elles ont des usages multiples et il existe pléthore d’algorithmes efficaces pour les calculer. Dans le problème étudié, elles permettent d’identifier pour toute localisation existante l’optimum local associé. Ainsi des arbitrages en termes de coûts/bénéfices entre une localisation actuelle, l’optimum local associé et l’optimum global deviennent possibles et facilitent des décisions de repositionnement.

 

 


Trouver l’optimum global par décomposition spatiale

Trouver l’optimum global par décomposition spatiale
Utiliser des heuristiques
Utiliser des heuristiques

Les algorithmes existants n’offrent pas des solutions optimums exactes et la plupart des solutions optimums fournies correspondent à des optimums locaux. Trouver l’optimum global exige le recours à des heuristiques. Les méthodes heuristiques sont utilisées pour trouver une solution satisfaisante qui peut dévier de la solution réellement optimum pour un problème donné. Le terme “heuristique” est dérivé du grec “heuriskein” qui signifie trouver ou découvrir.

D’après Reeves (1993) “une heuristique est une technique qui cherche des solutions bonnes (presque optimales) à un coût de calcul raisonnable, sans pour autant pouvoir garantir ni la faisabilité ni l’optimalité, ou sans même pouvoir indiquer, dans de nombreux cas, dans quelle mesure une solution particulière est proche de l’optimalité ”.

Dans cette partie on suggère quelques méthodes heuristiques pour trouver l’optimum global du problème analysé.

Une solution naturelle serait de trouver une manière de générer des points de départ pour un des algorithmes d’optimisation évoqués qui soit capable de couvrir l’espace de localisation de manière systématique. Cela peut être fait en appliquant une grille de points ou par génération aléatoire et répétée de points de départ. Durant la procédure la meilleure solution devra être mémorisée.

Ces méthodes sont faciles à mettre en place mais ne sont pas très efficaces. Par conséquent une solution différente est testée ici, d’abord dans l’espace bidimensionnel et ensuite dans l’espace tridimensionnel.


Une population de triangles 
Une population de triangles 

La méthode suggérée développe un maillage triangulaire de l’espace des localisations. Ce maillage se veut dynamique et flexible. Il imite un processus biologique de reproduction et de sélection cellulaire.

Au démarrage les quatre points qui marquent les extrémités de l’espace des localisations forment deux triangles. Les triangles sont capables de se reproduire de manière exponentielle en se subdivisant à chaque fois en quatre triangles fils pour couvrir uniformément l’espace et atteindre le nombre préfixé de petits triangles.

Une fois la taille prévue pour la population des triangles atteinte, elle sera maintenue par un processus de sélection qui limitera la prolifération de triangles aux alentours des meilleurs emplacements et les éliminera par ailleurs. Les triangles continuent à se contracter pour atteindre la "taille" d’un point qui sera un optimum.

Chaque triangle est vu comme un objet capable de retenir son état, c’est-à-dire les coordonnées  et la valeur des sommets (ici la part de marché du nouveau point d’offre),  ainsi qu’une mesure de sa performance comme la valeur maximum ou la moyenne des valeurs des sommets. La performance sera utilisée comme critère d’élimination de triangles dans le processus de sélection.

La population de triangles est gérée dans un container qui prend la forme d’un tampon FIFO (First In First Out). Quand la capacité maximum est atteinte, la population est purgée automatiquement en éliminant une proportion donnée de triangles, choisie parmi les triangles les moins performants.

Lors de l’ajout d’un nouveau triangle, la population réactualise la valeur de la performance globale et les coordonnés du sommet responsable de cette performance, en les conservant dans une structure qui représente l’optimum global du moment.


Illustration
Illustration

Les résultats obtenus pour un problème de positionnement dans l’espace perceptuel (figure 3) peuvent être vus en figure 4.

Figure 3. Une situation de marché et l’espace des parts de marché

(a)

(b)

 

La figure 3 montre une carte perceptuelle avec sept marques (produits) existantes, dont une appartient à la gamme de l’entreprise qui lance la nouvelle marque (produit). Les points de demande sont les quatre points idéaux des segments. Ici aussi les marques ont la même attraction et les segments ont des pouvoirs d’achat égaux. Les deux sont fixés arbitrairement à 1000.

Figure 4. Population de triangles et la recherche de l’optimum global

A

b

 

La procédure de génération et d’élimination de triangles, en utilisant la métaphore biologique évoquée précédemment, réussit à se focaliser sur les pics les plus hauts, en réduisant progressivement la surface occupée par la population des  triangles.

 

On a comparé les résultats de cette méthode de triangulation avec 1000 lancements de la procédure de Weiszfeld avec des points de départ aléatoires. Les résultats et la durée pour les obtenir ont été systématiquement meilleurs avec la méthode des triangles.


Extension 3D utilisant une population de tétraèdres
Extension 3D utilisant une population de tétraèdres

Le même algorithme a été adapté à l’espace tridimensionnel pour résoudre des problèmes de positionnement. La population initiale est composée de deux tétraèdres qui couvrent chacun la moitié du cube qui borne la représentation spatiale du marché. Comme pour les triangles, les tétraèdres sont capables de se reproduire de manière exponentielle en se subdivisant à chaque fois en quatre tétraèdres fils pour couvrir uniformément l’espace.

En répétant les processus de reproduction et sélection durant un nombre donné d’itérations la population de tétraèdres arrive à isoler les zones où se concentrent les meilleurs emplacements.

 

Figure 5. – Trouver le positionnement optimum global pour une  nouvelle marque dans un espace perceptuel 3D

(a) Une situation de marché dans un espace perceptuel 3D[6]

(b) Décomposition en tétraèdres d’un espace 3D[7]

 

La figure 5 montre le système d’aide à la décision (un applet écrit en langage JAVA) qui permet de résoudre le problème sur Internet. Les options peuvent être étendues à des vues 3D qui intègrent d’autres méthodes de décomposition spatiales qui seront testées ultérieurement.

 


Trouver la plupart des localisations optimum locales à l’aide de solutions hybrides

Trouver la plupart des localisations optimum locales à l’aide de solutions hybrides
Triangulation itérative et gradient
Triangulation itérative et gradient

Ce que nous avons présenté au début comme étant une propriété fâcheuse de l’algorithme de Weiszfeld, sa convergence vers l’optimum local le plus proche, peut tourner à son avantage.

La tâche de cet algorithme peut ne pas se résumer uniquement à trouver l’optimum global mais elle peut s’étendre afin d’enregistrer tous les optimums locaux. En répertoriant tous les optimums locaux, la méthode aide à la décision dans la recherche de localisations optimums sous contrainte. Cela peut servir par exemple dans des problèmes de repositionnement où le point de départ ou la position courante d’un point d’offre (unité de distribution, marque) est donnée d’avance et où atteindre une position optimum incombe un coût qui dépend de la distance entre la localisation actuelle et la localisation visée. Dans de telles circonstances une analyse coûts/bénéfices s’impose afin d’évaluer les différentes localisations optimums possibles et faciliter les arbitrages.


Convergence locale à taux décroissant
Convergence locale à taux décroissant

La méthode suggérée combine les procédures de décomposition spatiale présentées auparavant avec les étapes d’optimisation rapides de l’algorithme de Weiszfeld.

Elle s’appuie sur deux propriétés observées dans le comportement de l’algorithme de Weiszfeld, la convergence systématique vers un optimum local et la réduction progressive (voir linéaire[8]) de la longueur des pas comme l’illustre la figure 6.

Figure 6. Convergence locale à taux décroissant de l’algorithme de Weiszfeld


Elimination de triangles
Elimination de triangles

Il y a deux critères d’élimination qui sont appliqués après chaque itération Weiszfeld:

(a) La surface accrue signifie que les sommets se déplacent dans des directions divergentes. Le triangle se trouve à l’intersection de plusieurs aires de convergence. 

(b) Si le triangle ne s’accroît pas mais se déplace dans une direction quelconque à un tel pas que par exemple son nouveau barycentre se place en dehors du contour précèdent, cela signifie que tous les sommets bougent dans la même direction dans une même aire de convergence, mais ils ne sont pas encore arrivés à circonscrire l’optimum local.

Les triangles qui restent sont soit en situation de circonscrire l’optimum local comme en figure 7 (c) ou proches d’une telle situation.

Figure 7 – Critères de sélection des triangles déplacés dans des itérations Weiszfeld

(a) triangle à la frontière

(b) triangle dans l’aire de convergence

(c) optimum local circonscrit par le triangle

 

Cet algorithme semble très efficace par rapport à celui qui fait appel à la génération aléatoire ou systématique des points de départ pour enclencher une recherche complète d’optimum par la méthode de Weiszfeld. Une procédure Weiszfeld complète trouve un optimum local en 10 à 20 itérations (voir figure 6) et il faut au moins 400 points de départ pour obtenir une couverture satisfaisante de la situation analysée (voir figure 2), ce qui donne approximativement  6000 itérations.

La procédure d’élimination simultanée des triangles proposée peut démarrer en couvrant l’espace des solutions avec 200 triangles ou 250 sommets (car les triangles ont des sommets communs). Chaque étape consomme une itération Weiszfeld par sommet, élimine approximativement 60% des triangles et réduit le nombre de sommets. Au bout de dix étapes, ou  2000 itérations on obtient une liste quasi-exhaustive des optimums locaux.

La méthode n’est pas seulement beaucoup plus rapide que la méthode intuitive évoquée, mais elle est aussi très robuste. On peut choisir une population initiale très importante de triangles pour assurer un maillage très fin et ne laisser échapper aucun optimum potentiel sans que les performances soient altérées, car le taux d’élimination des triangles à la première itération sera très élevé.


Regroupement itératif des points les plus proches
Regroupement itératif des points les plus proches

En observant le processus de convergence progressive des points de départ uniformément distribués envers des optimums locaux, nous avons imaginé un autre algorithme potentiellement efficace pour enregistrer les optimums locaux.

Figure 8. Processus de convergence progressive des points de départ uniformément distribués envers des optimums locaux déterminé par la méthode de Weiszfeld

(a)

(b)

(c)

(d)

 

L’algorithme utilise une grille de points de départ ordonnés et uniformément distribués qui couvrent l’espace des solutions (voir figure 8). Tous ces points sont soumis à une itération Weiszfeld. La distance entre deux points successifs est comparée à une limite donnée, et si elle est inférieure à cette limite les deux points sont regroupés en un seul. La distance limite est fixée initialement égale au pas utilisé pour générer la grille des points. Ultérieurement elle est augmentée à un taux donné (disons 0.2) si durant l’itération précédente la population des points n’a pas été réduite et raccourcie autrement. A la fin la population des points ne devrait contenir que des optimums locaux.


Conclusions

Conclusions
Contributions
Contributions

Dans ce papier un problème de localisation optimum d’un nouveau point d’offre est présenté et étendu à l’espace multidimensionnel en se basant sur la similarité conceptuelle entre l’espace géographique et perceptuel en marketing. Une solution à ce problème utilisant l’algorithme de Weiszfeld (1937) a été suggérée par Drezner (1994) pour l’espace géographique bidimensionnel.

Les développements proposés ici commencent par une refonte des formules originales, qui cherche à rendre les calculs plus lisibles d’un point de vue managérial.


Convergence xxx
Convergence xxx

On montre ensuite que l’algorithme de Weiszfeld, recommandé pour résoudre ce problème, converge systématiquement vers des optimums locaux. En reconnaissant la similarité de cet algorithme avec la méthode plus générale du gradient, on donne une formulation basée sur le gradient du problème analysé. Des tests effectués en utilisant les deux algorithmes ont permis de comparer leurs performances. La méthode du gradient s’est montrée beaucoup plus efficace pour trouver l’optimum global, sans pour autant arriver à le trouver de manière systématique.

Pour surmonter le fait que les algorithmes existants ont tendance à converger vers des optimums locaux, des solutions alternatives sont explorées. Plusieurs procédures sont suggérées qui cherchent la localisation optimum globale dans des espaces à deux, trois et multiples dimensions. La majorité des solutions proposées couvre l’espace des solutions par un maillage constitué de populations d’objets géométriques et utilise une métaphore biologique pour guider des processus de reproduction et de sélection qui arrivent à isoler les meilleures positions.


Interêt de la convergence sistématique vers l’optipmum local le plus proche
Interêt de la convergence sistématique vers l’optipmum local le plus proche

Finalement, la propriété de converger vers l’optimum local le plus proche qui semble caractériser l’algorithme de Weiszfeld est exploitée pour formuler des procédures visant à répertorier les optimums locaux. En même temps on montre que l’espace des solutions peut être partitionné en zones de convergence associées aux optimums locaux. Il s’agit de diagrammes de Voronoï qui regroupent les positions les plus proches en terme de distance rectangulaire. Ce type de distance exprime la manière dans laquelle l’algorithme de Weiszfeld avance dans l’espace euclidien.

Dans des situations de localisation/positionnement d’un nouveau point d’offre ou de re-localisation d’un point existant, ces résultats offrent une manière de cartographier l’espace concurrentiel qui facilite la prise de décisions.


Aspects opérationnels
Aspects opérationnels

Les solutions proposées sont faciles à mettre en place et économiques en termes de calculs. Elles peuvent aider les managers à résoudre et à analyser des situations de localisation ou positionnement de nouvelles unités d’offre dans un espace continu (ou supposé continu). Elles facilitent la recherche de la position optimum globale, détectent et enregistrent les optimums locaux et aident à délimiter des zones de convergence. Ces zones de convergence, indiquent l’optimum local associé à toute localisation existante et facilitent les décisions de repositionnement.

Tous les développements présentés ont été rendus opérationnels sous forme de systèmes d’aide à la décision (applets en langage JAVA) qui fonctionnent aussi bien OFF-LINE que ON-LINE sur l’internet.

Pour permettre l’intégration facile avec des modèles et méthodes de mesure indispensables pour reconstituer, à partir de données empiriques, l’espace concurrentiel auquel s’appliquent les méthodes développées dans ce papier, nous avons crée une version en langage C, des algorithmes proposés qui ont été intégrés en tant que bibliothèques de liens dynamiques à l’environnement statistique R (R Development Core Team, 2003) et au tableur Excel.


Discussion
Discussion

Les solutions apportées s’appliquent à des problèmes de localisation ou de positionnement dans un espace continu. Il s’agit de trouver les meilleurs emplacements pour un nouveau point d’offre quand on connaît les positions et éventuellement la masse des points qui représentent l’offre propre, l’offre concurrente et la demande.

Ces problèmes utilisent une représentation du marché privilégiée en marketing, qui s’applique aussi bien à l’espace géographique de la distribution qu’à l’espace perceptuel du consommateur. Comme toute représentation, elle comporte des simplifications.

Une représentation continue de l’espace, à la différence d’une représentation discrète ou en réseau, est souvent moins précise quand il s’agit des distances à parcourir dans les espaces géographiques et peut conduire parfois à trouver des localisations optimums dans des endroits impraticables (des lacs, des parcs etc.), mais elle est aussi plus économique et insensible aux variations et aux sources de complexité induites par la dynamique des configurations en réseau.



Références

Références
Références
Références

Brimberg J. and R.F. Love (1992) Local Convergence in a Generalized Fermat-Weber Problem. Anns. Opns. Res. 67, 287-294.

Brimberg J. et R.F. Love (1993) Global Convergence of a Generalized Iterative Procedure for the Minisum Location Problem with lp Distances. Operations Research, 41, 6, 1153-1163.

Carpenter G.S, (1989) “Perceptual Position and Competitive Brand Strategy in a Two-Dimensional, Two-Brand Market”, Management Science, 35,9, 1029-1044.

Craig C.S. , Ghosh A. et McLafferty S. (1984), Models of retail location process: a review, Journal of Retailing, 60, 1, Spring, 5-36.

Chen P.-C., Hansen P., Jaumard B. et Tuy H. (1998) Solution of the multisource Weber and conditional Weber problems by D.-C. programming, Operations Research. Linthicum: 46, 4; 548-562

Cliquet G. (1990), La mise en oeuvre du modèle interactif de concurrence spatiale (MICS) subjectifs, Recherche et Applications en Marketing, 5 , 1, 3-18.

Cooper L. (1963) Location-Allocation Problems. Operations Research, 11, 37-52.

Cooper L.G. (1983) “A Review of Multidimension Scaling in Marketing Research,” Appl. Psychological Measurement, 7, Fall, 427-450.

DeSarbo W., Kim J., Choi S.C. and Spaulding M. (2002) “A Gravity-Based Multidimensional Scaling Model for Deriving Spatial Structures Underlying Consumer Preferece/Choice Judgements,” Journal of Consumer Research, June, 29, 1, 91-100.

DeSarbo W. et Rao V. (1986) “A Constrained Unfolding Methodology for Product Positioning,” Marketing Science, 5, 1-19.

Dillon, W.R., Domzal, V. and Madden, T.J. (1986), "Evaluating alternative product positioning strategies", Journal of Advertising Research, August/September, pp. 29-35.

Drezner T. (1994), "Optimal Continuous Location of Retail Facility, Facility Attractiveness, and Market Share: An Interactive Model", Journal of Retailing, 70, 1, p. 49-64.

Ehrenberg, A.S.C., (1994) "Commentary to Marketing Models: Past, Present and Future by G. Lilien", en Research Traditions in Marketing G.Laurent, G.L. Lilien, B. Pras, Boston, Kluwer Academic Publishers, 24-25.

Geoffrion A.M. (1987) "An introduction to structured modeling," Management Science, 33, 5, 547-589.

Giannikos I et Nickel S. Eds. (1996) Some Personal Views on the Current State and the Future of Locational Analysis. Rapport exprimant les points de vue du groupe de participants au 12th European Summer Institute, Tenerife, 1995, 1-36

Green P.E., Carmone F.J.Jr et Smith S.M. (1989) Multidimensiona Scaling. Concepts and Applications, Allyn and Bacon, Boston.

Green P.E. et Rao V. (1972) Applied Multidimensional Scaling, Holt, Rinehart and Winston, Inc., New York.

Hale T, Trevor Hale’s Location Science References. Disponible à l’adresse :  http://www.ent.ohiou.edu/~thale/thlocation.html

Hamacher H.W., S.Nickel et A.Schneider, Classification of location problems, Tech. Report, University of Kaiserslautern, Department of Mathematics, 1996, Report in Wissenschaftsmathematik No. 19

Hooley, G., Saunders, J. and Piercy, N.F. (1998), Marketing Strategy and Competitive Positioning, 2nd ed., Prentice-Hall, Hemel Hempstead.

Huff D.L. (1966), A programmed solution for approximating an optimum retail location, Land Economics, 42, 293-303.

Huff D.L. (1964) Defining and estimating a trade area, Journal of Marketing,  28, 34-38.

Johansson J.K (1985) International Product Positioning, Journal of International Business Studies, Fall, 57-75.

Johnson R.M. (1971) “Market Segmentation: A Strategic Management Tool,” Journal of Marketing Research, 8, February, 13-18.

Kalafatis S.P., Tsogas M.H. et Blankson C (2000) Positioning strategies in business markets, The Journal of Business & Industrial Marketing, Santa Barbara, 15, 6, 416-437,

Katz I.N., (1974) Local Convergence in Fermat’s Problem. Math. Prog. 6, 89-104.

Kimes S.E. et Fitzsimmons J.A. (1990), Selecting Profitable Hotel Sites at La Quinta Motor Inns, Interfaces, 20, March-April, 12-20.

Kotler, P. (2000), Marketing Management, Millenium edition, Prentice-Hall, Upper Saddle River, NJ.

Kuhn H., (1973) A Note on Fermat’s Problem. Math. Prog. 4, 98-107.

Kuhn H. et Kuenne R.E. (1962) "An efficient algorithm for the numerical solution of the generalized Weber problem in spatial economics," J. of Regional Science, 4, 2,21 -33.

Le Moigne, J-L., (1990) La modélisation des systèmes complexes, Dunod, Paris.

Miehle W. (1958) “Link-Length Minimization in Networks,” Operations Research, 6, 232-243.

Monroe, Kent B. (1986) "A Summary of Task Force's Current and Future Activities," dans Marketing Education Knowledge Development, Dissemination and Utilisation, D. Achabal and J. Guiltinan, Eds. Chicago: American Marketing Association.

Myers, John G., Stephen A. Greyser, et William F. Massy (1979) "The Effectiveness of Marketing's 'R&D' for Marketing Management: An Assessment," Journal of Marketing, 43, January, 17-29.

Nakanishi M. et Cooper L.G. (1974), Parameter estimate for multiplicative interactive choice model: least squares approach, Journal of Marketing Research, 11, 303-311.

Reeves C.R. (1993)  Modern Heuristic Techniques for Combinatorial Problems. Blackwell Scientific Publications. Oxford. Great Britain

Reilly, W.J. (1931), The law of retail gravitation, New York, Knickerbocker Press.

Ries, A.L. and Trout, J. (1986), Positioning: The Battle for your Mind, McGraw-Hill, London.

Scaparra M.P. et M.G. Scutellà (2001) "Facilities, Locations, Customers: Building blocks of location models. A survey", TR 01-18, Dipartimento di Informatica, Università di Pisa

Sekhar, K.M. (1989), "Positioning strategies for the British commercial vehicles", thèse de doctorat , University of Strathclyde, Glasgow (cité dans Kalafatis, Tsogas et Blankson , 2000)

Urban, G.L., J. R. Hauser (1980), Design and marketing of New Products, Englewood Cliffs, N.J.: Prentice Hall

Weiszfeld E. (1937) Sur le Point Leque la Somme des Distances de n Points donnés est Minimum. Tohoku Mathematical J., 43, 355-386.

Wind Y.J. (1982) Produce Policy: concepts, Methods and Strategy, Addison-Wesley, Reading, MA.

R Development Core Team (2003). R: A language and environment for   statistical computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-00-3, URL http://www.R-project.org.