Méthodes mathématiques de prévision (Département d'informatique et de technologie, Université d'État de Moscou). Méthodologie de modélisation mathématique d'un programme de développement d'entreprise agricole

  • 22.09.2019

Yurashev Vitaly Viktorovitch doctorat Sc., directeur scientifique de la société "Gradient"

Shelest Igor Vladimirovitch Architecte système chez Jet Infosystems

La prévision dans les entreprises est importante en raison de son utilisation possible pour des effets de stabilisation. Des prévisions raisonnables encouragent les gens à agir de manière plus rationnelle et les empêchent de « réagir de manière excessive » vers le pessimisme ou l’optimisme. Une bonne prévision garantit que l'entreprise accepte des décisions rationnelles concernant les biens ou services produits par l’entreprise. L'absence de prévision oblige la direction de l'entreprise à prendre des précautions inutiles.

Les méthodes de prévision nécessitent généralement un investissement important en temps et en argent. Cependant, un homme d'affaires a besoin de méthodes qui ne nécessitent pas de raisonnement complexe dans le travail quotidien et peuvent être présentées sous forme de programmes. Il est nécessaire de trouver des méthodes de prévision sans analyse individuelle détaillée. En outre, il est souhaitable que la connaissance de la situation du marché que possèdent les personnes qui y travaillent constamment soit utilisée dans de tels modèles.

La prévision étant un problème difficile, il est évident qu’une entreprise doit disposer de plusieurs séries de prévisions autres qu’une simple prévision descriptive. Cela vous aidera à prendre des mesures plus décisives, ce qui entraînera une augmentation des bénéfices, une efficacité accrue de l'organisation et une croissance de son prestige.

Les données d'entrée permettant d'effectuer une prévision à l'aide de séries chronologiques sont généralement les résultats d'échantillons d'observations de variables - soit l'intensité (par exemple, la demande d'un produit), soit l'état (par exemple, le prix). Les décisions qui doivent être prises sur le moment auront un impact dans le futur après un certain temps, dont la valeur peut être prévisible.

Les séries chronologiques sont des données classées dans le temps. En conséquence, nous désignerons désormais la période de temps par t et la valeur des données correspondante par y(t). Notez que les membres d’une série chronologique sont soit des montants, soit des informations numériques obtenues à un moment donné. Par exemple, la somme des ventes hebdomadaires d'un magasin obtenue à la fin de chaque semaine de l'année forme une série chronologique.

La tendance désigne la direction générale et la dynamique d'une série chronologique. Cette définition met l'accent sur la notion de « direction globale » car la tendance sous-jacente doit être distinguée des fluctuations à court terme, qui sont des fluctuations cycliques et saisonnières. Exemples de fluctuations cycliques : prix des matières premières industrielles, cours des actions, volumes des ventes dans le commerce de gros et de détail, etc. Les fluctuations saisonnières se retrouvent dans les séries chronologiques décrivant les ventes, la production, l'emploi, etc. Les conditions météorologiques, la mode, le style jouent un rôle important. dans les fluctuations saisonnières, etc. Nous notons surtout que les fluctuations irrégulières ou aléatoires des séries temporelles n'obéissent à aucun modèle et qu'il n'existe aucune théorie permettant de prédire leur comportement.

Du point de vue de la production la bonne décision gestion de l'entreprise, l'inclusion de fluctuations périodiques (cycliques et saisonnières) dans le modèle global peut améliorer l'efficacité de la prévision et permettre de prédire les valeurs hautes et basses attendues des variables de prévision. Il faut toutefois garder à l’esprit que les « affaires » ou les cycles économiques ne peuvent pas être reproduits avec une telle précision qu’il est pratique de tirer des conclusions sur les expansions et les récessions futures sur la base d’une analyse du passé.

L'ouvrage présente des tendances linéaires, cycliques et « exponentielles ». Quelques mots sur la tendance exponentielle. L'analyse du cycle de vie des biens, des services, des innovations et la réflexion sur les processus qui nous entourent ont montré que le modèle de développement et de mort des systèmes biologiques est un outil efficace pour étudier de nombreux phénomènes en entreprise. De plus, comme en entreprise, les indicateurs du fonctionnement d'un système biologique dans le temps ne sont pas linéaires à toutes les étapes de son développement. Les cycles de vie mentionnés ci-dessus ont été simulés et leur élasticité temporelle s'est avérée être une fonction linéaire. Les coefficients de cette fonction permettent non seulement de prendre en compte les mécanismes non linéaires des cycles de vie, mais aussi de prédire leur occurrence. En conséquence, nous avons obtenu une tendance que nous avons appelée « exponentielle » car elle inclut une exponentielle temporelle.

Considérons la série temporelle y(1), y(2),...(y(i),...y(T). Il est nécessaire de représenter la fonction pour laquelle cette série est donnée par un polynôme trigonométrique. Le Les composantes périodiques du polynôme sont inconnues. L'avantage de ce modèle est qu'il garantit la stabilité des prévisions en énumérant les fréquences. Les coefficients sont calculés en utilisant l'ensemble des données.

En pratique, un tel modèle s’avère délicat pour l’utilisateur. Un programme informatique a donc été développé. Le contrôle du respect de l'historique de fond s'effectue à l'aide de la méthode moindres carrés(voir : Taha A. Operations Research. M. : Williams, 2005). Dans de nombreux cas, les changements dans le processus étudié peuvent être anticipés à l'avance et inclus dans le modèle de prévision présenté. Après tout, les managers expérimentés peuvent prédire la nature des changements. Le programme comprend la coordination des tendances à travers le choix optimal des fréquences dans les séries présentées. Pour ajuster la prévision, vous pouvez non seulement faire varier les tendances, mais également prendre en compte les résultats de la prévision subjective.

Nous chercherons une tendance sous la forme : Y(t) = C + Asin(wt) + Bcos(wt).

Puisque les valeurs de cette fonction aux points 1, 2, ... T sont connues, on obtient un système de T équations linéaires pour les coefficients A, B, C, w est le paramètre.

On résout ce système par la méthode des moindres carrés (T>3) et obtenons les valeurs des coefficients A, B, C, en fonction de w. Il est nécessaire de sélectionner les valeurs de w de manière à ce que les valeurs de tendance se rapprochent au mieux des valeurs des séries chronologiques. L'optimisation est réalisée par la méthode des approximations successives. La valeur initiale de w, qui est le début d'approximations successives, est trouvée à l'aide de formules présentées, par exemple, dans l'ouvrage de référence sur les mathématiques de G. Korn, T. Korn, (M. : Nauka, 1989. Ch. 20) .

Nous soustrayons des valeurs réelles (c'est-à-dire initialement spécifiées sous la forme de termes d'une série chronologique) y(1), y(2),...y(i),...y(t) la valeur théorique trouvée valeurs y(t) aux instants t =1, 2,...,i,...T. Pour les données obtenues (en les considérant comme réelles, c'est-à-dire membres d'une série chronologique), nous répétons la procédure ci-dessus.

La précision des prévisions est de 1 à 3 %, fluctuant parfois jusqu'à 5 à 10 %. Tout dépend de la présence de bruit, qui peut affecter considérablement les prévisions. Si la série rétrospective est importante, le programme identifie alors clairement les composantes régulières du processus. Avec une petite série temporelle rétrospective (jusqu'à 5 à 8 valeurs), vous devez utiliser un lissage exponentiel. La méthode de lissage exponentiel est basée sur une moyenne mobile. Mais elle surmonte l’inconvénient de la méthode de la moyenne mobile, à savoir que toutes les données utilisées pour calculer la moyenne sont pondérées de manière égale. En particulier, la méthode de lissage exponentiel attribue plus de poids à l’observation la plus récente. Comme la méthode présentée dans cet article, elle est particulièrement efficace pour prévoir des séries chronologiques avec des fluctuations cycliques sans fortes fluctuations aléatoires (voir : Taha A. Operations Research).

Donnons un exemple de calcul du volume de ventes projeté (Tableaux 1, 2).

Tableau 1. Donnée initiale

Tableau 2. Calculer une prévision à l'aide d'une tendance sinusoïdale

Les résultats du calcul sont présentés sous forme de graphiques sur la figure 1 (fonction théorique - ligne noire, données initiales - noire, tendance - grise).

Riz. 1. Calcul du volume de ventes projeté à l'aide d'une tendance sinusoïdale

Donnons un exemple d'utilisation d'une tendance exponentielle pour calculer une prévision de ventes.

Cet exemple examine l'évolution du volume des ventes pendant et après une campagne publicitaire (Tableaux 3, 4).

Tableau 3. Donnée initiale

Tableau 4. Calculer une prévision à l'aide d'une tendance exponentielle

Les résultats du calcul sont présentés sous forme de graphiques sur la figure 2 (fonction théorique - tiret gris, données initiales - noir, tendance - gris).

Riz. 2. Calcul du volume de ventes prévu à l'aide d'une tendance exponentielle

Le produit logiciel que nous avons développé, adapté pour fonctionner dans des conditions spécifiques, est universel, fiable et résistant aux conditions changeantes. De plus, et c’est non négligeable, vous pouvez augmenter le nombre de tâches à résoudre. Ainsi, par exemple, lors de la prévision des volumes de ventes, vous pouvez résoudre le problème de l'influence de chaque indicateur (publicité, expositions, Internet) sur le montant du bénéfice.

L'un des avantages du projet est son faible coût. Vous pouvez donc comparer les résultats obtenus avec ceux obtenus par d’autres méthodes. Leur différence donnera à la direction des raisons de mener des recherches plus approfondies.

Le programme est facile à utiliser : il suffit de saisir les données nécessaires du champ d'information dans le programme. La seule difficulté peut être d'obtenir des données personnelles. Des difficultés surviennent lors de la création du champ d’information dans lequel travailler.

Tout dépend des conditions dans lesquelles les données doivent être obtenues (terrain ou laboratoire). La capacité des experts à construire un champ quasi-informationnel simplifie le travail au stade préliminaire de la recherche, mais dans ce cas la saveur « terrain » du projet est perdue.

La valeur du projet réside également dans la mobilité dans la résolution des tâches assignées, la réponse rapide aux changements environnementaux, la correction facile des modifications et des ajouts lorsque vous travaillez sur une tâche spécifique.

* Ce travail n'est pas un travail scientifique, ce n'est pas un travail de fin d'études travail qualifiant et est le résultat du traitement, de la structuration et du formatage des informations collectées, destinées à être utilisées comme source de matériel pour la préparation indépendante du travail éducatif.

Matlab - comme outil de modélisation mathématique

Nous pouvons parler très longtemps des programmes de modélisation mathématique et des domaines possibles de leur application, mais nous nous limiterons à un bref aperçu des principaux programmes, en indiquant leurs caractéristiques communes et leurs différences. Actuellement, presque tous les programmes CAE modernes disposent de fonctions de calcul symbolique intégrées. Cependant, Maple, MathCad, Mathematica et MatLab sont considérés comme les plus connus et les plus adaptés aux calculs symboliques mathématiques. Mais, tout en passant en revue les principaux programmes de mathématiques symboliques, nous soulignerons également les alternatives possibles qui sont idéologiquement similaires à l'un ou l'autre des programmes phares.

En utilisant le logiciel décrit, vous pouvez gagner beaucoup de temps et éviter de nombreuses erreurs de calcul. Naturellement, les systèmes CAE ne se limitent pas à ces seules capacités, mais dans cette revue, nous nous concentrerons sur elles.

Notons seulement que l'éventail des problèmes résolus par de tels systèmes est très large :

Réalisation recherche mathématique, nécessitant des calculs et des calculs analytiques ;

Développement et analyse d'algorithmes ;

Modélisation mathématique et expérimentation informatique ;

Analyse et traitement des données ;

Visualisation, graphisme scientifique et technique ;

Développement d'applications graphiques et de calcul.

Cependant, nous notons que puisque les systèmes CAE contiennent des opérateurs pour les calculs de base, presque tous les algorithmes qui ne sont pas inclus dans les fonctions standard peuvent être implémentés en écrivant votre propre programme.

Processeur Pentium II ou supérieur ;

400 à 550 Mo d'espace disque ;

Systèmes d'exploitation : Windows 98/Me/NT 4.0/2000/2003 Server/2003x64/XP/XP x64.

Wolfram Reseach, Inc., qui a développé le système mathématique informatique Mathematica, est à juste titre considéré comme l'acteur le plus ancien et le plus établi dans ce domaine. Le package Mathematica (version actuelle 5.2) est largement utilisé dans les calculs de la recherche scientifique moderne et est devenu largement connu dans l'environnement scientifique et éducatif. On pourrait même dire que Mathematica possède une redondance fonctionnelle importante (il y a notamment même la possibilité de synthétiser le son).

Bien qu'ils soient axés sur des calculs mathématiques sérieux, les systèmes de cours Mathematica sont faciles à apprendre et peuvent être utilisés par une catégorie assez large d'utilisateurs - étudiants et enseignants universitaires, ingénieurs, étudiants diplômés, chercheurs et même étudiants en cours de mathématiques dans l'enseignement général et spécial. écoles. Tous trouveront de nombreuses possibilités d'application utiles dans un tel système.

Dans le même temps, les fonctions étendues du programme ne surchargent pas son interface et ne ralentissent pas les calculs. Mathematica démontre systématiquement une grande vitesse de transformations symboliques et de calculs numériques. De tous les systèmes considérés, le programme Mathematica est le plus complet et le plus universel, cependant, chaque programme présente à la fois ses avantages et ses inconvénients. Et surtout, ils ont leurs propres partisans, qu'il est inutile de convaincre de la supériorité d'un autre système. Mais ceux qui travaillent sérieusement avec des systèmes mathématiques informatiques devraient utiliser plusieurs programmes, car c'est le seul à garantir un haut niveau de fiabilité des calculs complexes.

Notez que d'autres sociétés et des centaines de spécialistes hautement qualifiés, notamment des mathématiciens et des programmeurs, ont participé au développement de différentes versions du système Mathematica, en collaboration avec la société mère Wolfram Research, Inc. Mathematica est l'un des systèmes logiciels les plus importants et implémente les algorithmes de calcul les plus efficaces. Ceux-ci incluent, par exemple, le mécanisme contextuel, qui élimine l'apparition d'effets secondaires dans les programmes.

Le système Mathematica est aujourd'hui considéré comme le leader mondial parmi les systèmes informatiques de mathématiques symboliques pour PC, offrant non seulement la possibilité d'effectuer des calculs numériques complexes avec la sortie de leurs résultats sous la forme graphique la plus sophistiquée, mais également d'effectuer des calculs particulièrement exigeants en main-d'œuvre. transformations analytiques et calculs. Les versions Windows du système disposent d'une interface utilisateur moderne et vous permettent de préparer des documents sous forme de blocs-notes. Ils combinent des données sources, des descriptions d'algorithmes de résolution de problèmes, des programmes et des résultats de solutions sous une grande variété de formes ( formules mathématiques, nombres, vecteurs, matrices, tableaux et graphiques).

Mathematica a été conçu comme un système qui automatiserait autant que possible le travail des scientifiques et des mathématiciens analytiques. Il vaut donc la peine de l'étudier même en tant que chercheur. représentant typiqueélite et très intelligent produits logiciels le plus haut degré de complexité. Cependant, il présente un intérêt bien plus grand en tant que boîte à outils mathématique puissante et flexible pouvant fournir une aide inestimable à la plupart des scientifiques, professeurs d'université, étudiants, ingénieurs et même écoliers.

Dès le début, une grande attention a été accordée aux graphismes, y compris dynamiques, et même aux capacités multimédias - lecture d'animations dynamiques et synthèse sonore. La gamme de fonctions graphiques et d'options qui modifient leur effet est très large. Les graphiques ont toujours été la force des différentes versions du système Mathematica et leur ont conféré une place de leader parmi les systèmes mathématiques informatiques.

En conséquence, Mathematica a rapidement pris une position de leader sur le marché des systèmes mathématiques symboliques. Les capacités graphiques étendues du système et la mise en œuvre d’une interface de type Notebook sont particulièrement intéressantes. Dans le même temps, le système fournissait une connexion dynamique entre les cellules du document dans le style feuilles de calcul même lors de la résolution de problèmes symboliques, ce qui le distinguait fondamentalement et avantageusement d'autres systèmes similaires.

Ainsi, Mathematica est, d'une part, un système de programmation typique basé sur l'un des langages de programmation fonctionnels de haut niveau orientés problèmes les plus puissants, conçu pour résoudre divers problèmes (y compris mathématiques), et d'autre part, un système interactif. système permettant de résoudre la plupart des problèmes mathématiques et des tâches en ligne sans programmation traditionnelle. Ainsi, Mathematica, en tant que système de programmation, a toutes les capacités nécessaires pour développer et créer presque toutes les structures de contrôle, organiser les entrées-sorties, travailler avec les fonctions du système et entretenir tous les périphériques, et avec l'aide de packages d'extension (modules complémentaires), cela devient possible s'adapter aux besoins de tout utilisateur (même si l'utilisateur moyen n'a peut-être pas besoin de ces outils de programmation - il se débrouillera avec les fonctions mathématiques intégrées du système, qui étonnent même les mathématiciens expérimentés par leur abondance et leur variété).

Les inconvénients du système Mathematica incluent le très langage inhabituel programmation dont l'accès est toutefois facilité par un système d'aide détaillé.

Configuration minimale requise:

Processeur Pentium III 650 MHz ;

400 Mo d'espace disque ;

Systèmes d'exploitation : Windows NT 4 (SP5)/98/ME/2000/2003 Server/XP Pro/XP Home.

Programme Érable ( dernière version 10.02) est une sorte de patriarche dans la famille des systèmes mathématiques symboliques et reste l’un des leaders parmi les systèmes informatiques symboliques universels. Il offre à l'utilisateur un environnement intellectuel pratique pour la recherche mathématique à tous les niveaux et est particulièrement populaire dans la communauté scientifique. Notez que l'analyseur symbolique du programme Maple est la partie la plus puissante de ce logiciel, il a donc été emprunté et inclus dans un certain nombre d'autres progiciels CAE, tels que MathCad et MatLab, ainsi que dans les progiciels de préparation de publications scientifiques Scientific WorkPlace et Bureau de mathématiques pour Word.

Le package Maple est un développement conjoint de l'Université de Waterloo (Ontario, Canada) et de l'ETHZ, Zurich, Suisse. Une société spéciale a été créée pour sa vente - Waterloo Maple, Inc., qui, malheureusement, est devenue plus célèbre pour l'étude mathématique de son projet que pour le niveau de sa mise en œuvre commerciale. En conséquence, le système Maple était auparavant accessible principalement à un cercle restreint de professionnels. Aujourd'hui, cette société travaille en collaboration avec la société MathSoft, Inc., qui connaît plus de succès dans le commerce et dans le développement de l'interface utilisateur des systèmes mathématiques. - le créateur des systèmes de calculs numériques très populaires et répandus MathCad, qui sont devenus la norme internationale pour les calculs techniques.

Maple fournit un environnement pratique pour les expériences informatiques, au cours desquelles différentes approches d'un problème sont essayées, des solutions particulières sont analysées et, si une programmation est nécessaire, des fragments nécessitant une vitesse particulière sont sélectionnés. Le package vous permet de créer des environnements intégrés avec la participation d'autres systèmes et langages de programmation universels de haut niveau. Lorsque les calculs ont été effectués et que vous devez formaliser les résultats, vous pouvez utiliser les outils de ce package pour visualiser les données et préparer des illustrations pour la publication. Pour terminer le travail, il ne reste plus qu'à préparer le matériel imprimé (rapport, article, livre) directement dans l'environnement Maple, puis vous pourrez passer à l'étude suivante. Le travail est interactif - l'utilisateur saisit des commandes et voit immédiatement le résultat de leur exécution sur l'écran. Dans le même temps, le package Maple n'est pas du tout similaire à un environnement de programmation traditionnel, qui nécessite une formalisation stricte de toutes les variables et actions avec elles. Ici, la sélection des types de variables appropriés est automatiquement assurée et l'exactitude des opérations est vérifiée, de sorte que cas général la description des variables et la formalisation stricte de l'enregistrement ne sont pas requises.

Le package Maple est constitué d'un noyau (procédures écrites en C et bien optimisées), d'une bibliothèque écrite en langage Maple, et d'une interface externe développée. Le noyau effectue la plupart des opérations de base et la bibliothèque contient de nombreuses commandes - procédures exécutées en mode interprétatif.

L'interface Maple est basée sur le concept d'une feuille de calcul, ou d'un document, contenant des lignes et du texte d'entrée/sortie, ainsi que des graphiques.

Le package est traité en mode interpréteur. Dans la ligne d'entrée, l'utilisateur spécifie une commande, appuie sur la touche Entrée et reçoit le résultat - une ou plusieurs lignes de sortie ou un message concernant une commande saisie par erreur. Une invitation est immédiatement émise pour saisir une nouvelle commande, etc.

L'informatique en érable

Maple peut être utilisé à son niveau le plus élémentaire - comme une calculatrice très puissante pour calculer formules données, mais son principal avantage est la capacité d'effectuer des opérations arithmétiques sous forme symbolique, c'est-à-dire la manière dont une personne le fait. Lorsque vous travaillez avec des fractions et des racines, le programme ne les convertit pas sous forme décimale lors des calculs, mais effectue les réductions et transformations nécessaires en colonne, ce qui vous permet d'éviter les erreurs d'arrondi. Pour travailler avec des équivalents décimaux, le système Maple a équipe spéciale, qui se rapproche de la valeur d'une expression au format à virgule flottante.

Le système Maple offre différentes manières représentations, réductions et transformations d'expressions, telles que des opérations telles que la simplification et la factorisation d'expressions algébriques et leur réduction à divers types. Ainsi, Maple peut être utilisé pour résoudre des équations et des systèmes.

Maple dispose également de nombreux outils puissants pour évaluer des expressions avec une ou plusieurs variables. Le programme peut être utilisé pour résoudre des problèmes de calcul différentiel et intégral, de calcul des limites, d'expansion de séries, de sommation de séries, de multiplication, de transformations intégrales (telles que la transformée de Laplace, la transformée en Z, la transformée de Mellin ou de Fourier), ainsi que pour étudier les fonctions continues ou continues par morceaux.

Maple peut calculer les limites des fonctions, à la fois finies et tendant vers l'infini, et reconnaît également les incertitudes dans les limites. Ce système peut résoudre de nombreuses équations différentielles ordinaires (ODE) ainsi que équations différentielles les dérivées partielles (PDE), y compris les problèmes de conditions initiales (IVP) et les problèmes de conditions aux limites (BVP).

L'un des progiciels les plus couramment utilisés dans Maple est le progiciel d'algèbre linéaire, qui contient un puissant ensemble de commandes permettant de travailler avec des vecteurs et des matrices. Maple peut trouver des valeurs propres et des vecteurs propres d'opérateurs, calculer des coordonnées curvilignes, trouver des normes matricielles et calculer de nombreux types différents de décompositions matricielles.

La programmation

Le système Maple utilise un langage procédural de 4ème génération (4GL). Ce langage est spécialement conçu pour le développement rapide de routines mathématiques et d'applications personnalisées. La syntaxe de ce langage est similaire à la syntaxe des langages universels de haut niveau : C, Fortran, Basic et Pascal.

Maple peut générer du code compatible avec les langages de programmation tels que Fortran ou C, ainsi qu'avec le langage de typage LaTeX, très populaire dans le monde scientifique et utilisé pour la publication. L'un des avantages de cette propriété est la capacité de donner accès à des programmes numériques spécialisés qui maximisent la vitesse de résolution de problèmes complexes. Par exemple, en utilisant le système Maple, vous pouvez développer un certain modèle mathématique, puis l'utiliser pour générer du code C correspondant à ce modèle. Le langage 4GL, spécialement optimisé pour le développement d'applications mathématiques, vous permet de raccourcir le processus de développement, et les éléments Maplets ou les documents Maple avec composants graphiques intégrés vous aident à personnaliser l'interface utilisateur.

Parallèlement, dans l'environnement Maple, vous pouvez préparer la documentation de l'application, puisque les outils du package vous permettent de créer des documents techniques. aspect professionnel, contenant du texte, des calculs mathématiques interactifs, des graphiques, des images et même du son. Vous pouvez également créer des documents et des présentations interactifs en ajoutant des boutons, des curseurs et d'autres composants, et enfin publier des documents sur Internet et déployer une informatique interactive sur le Web à l'aide du serveur MapleNet.

Compatibilité Internet

Maple est le premier package mathématique universel à offrir une prise en charge complète du standard MathML 2.0, qui régit à la fois l'apparence et la convivialité des mathématiques sur le Web. Cette fonctionnalité exclusive fait de la version actuelle de MathML le principal outil pour les mathématiques sur Internet et établit également nouveau niveau compatibilité d'un environnement multi-utilisateurs. TCP/IP fournit un accès dynamique aux informations provenant d'autres ressources Internet, telles que des analyses financières en temps réel ou des données météorologiques.

Perspectives de développement

Les dernières versions de Maple, en plus d'algorithmes et de méthodes supplémentaires pour résoudre des problèmes mathématiques, ont reçu une interface graphique plus pratique, des outils avancés de visualisation et de création de graphiques, ainsi que des outils de programmation supplémentaires (y compris la compatibilité avec les langages de programmation universels). À partir de la neuvième version, l'importation de documents du programme Mathematica a été ajoutée au package, et les définitions des concepts mathématiques et techniques ont été introduites dans le système d'aide et la navigation dans les pages d'aide a été étendue. De plus, la qualité d'impression des formules a été améliorée, notamment lors du formatage d'expressions volumineuses et complexes, et la taille des fichiers MW destinés au stockage des documents de travail Maple a été considérablement réduite.

Ainsi, Maple est peut-être le système le plus équilibré et le leader incontesté en matière de capacités de calcul symbolique pour les mathématiques. Dans le même temps, le moteur symbolique original est ici combiné avec un langage de programmation structuré facile à retenir, de sorte que Maple puisse être utilisé aussi bien pour de petites tâches que pour de grands projets.

Les seuls inconvénients du système Maple incluent son caractère quelque peu « réfléchi », qui n'est pas toujours justifié, ainsi que le coût très élevé de ce programme (selon la version et l'ensemble des bibliothèques, son prix atteint plusieurs dizaines de milliers de dollars , même si les étudiants et les chercheurs se voient proposer des versions bon marché - pour plusieurs centaines de dollars).

Le package Maple est largement distribué dans les universités de grande puissance scientifique, les centres de recherche et les entreprises. Le programme est en constante évolution, intégrant de nouveaux domaines mathématiques, acquérant de nouvelles fonctions et offrant un meilleur environnement pour travail de recherche. L'une des principales directions de développement de ce système est d'augmenter la puissance et la fiabilité des calculs analytiques (symboliques). Cette direction est la plus largement représentée en Maple. Aujourd'hui déjà, Maple peut effectuer des calculs analytiques complexes qui dépassent souvent les capacités même des mathématiciens expérimentés.

Configuration minimale requise:

Processeur Pentium III, 4, Xeon, Pentium M ; AMD Athlon, Athlon XP, Athlon MP ;

400 Mo d'espace disque (uniquement pour le système MatLab lui-même et son aide) ;

Système d'exploitation Microsoft Windows 2000 (SP3)/XP.

Le système MatLab est un produit de niveau intermédiaire conçu pour les mathématiques symboliques, mais il est conçu pour une utilisation généralisée dans le domaine de l'IAO (c'est-à-dire qu'il est également performant dans d'autres domaines). MatLab est l'un des systèmes d'automatisation des calculs mathématiques les plus anciens, soigneusement développés et éprouvés, construit sur une représentation et une application avancées d'opérations matricielles. Cela se reflète dans le nom même du système - MATrix LABoratory, c'est-à-dire laboratoire matriciel. Cependant, la syntaxe du langage de programmation du système est si soigneusement pensée que cette orientation n'est quasiment pas ressentie par les utilisateurs qui ne sont pas directement intéressés par les calculs matriciels.

Malgré le fait que MatLab était à l'origine destiné exclusivement à l'informatique, en cours d'évolution (et maintenant la version 7 est déjà sortie), en plus d'excellents outils informatiques, un noyau de transformation symbolique a été acheté chez Waterloo Maple sous licence MatLab, et des bibliothèques sont apparues qui fournissent des fonctions dans MatLab propres aux packages mathématiques. Par exemple, la célèbre bibliothèque Simulink, mettant en œuvre le principe de la programmation visuelle, vous permet de créer un schéma logique d'un système de contrôle complexe à partir de blocs standard uniquement, sans écrire une seule ligne de code. Après avoir construit un tel circuit, vous pouvez analyser son fonctionnement en détail.

Le système MatLab dispose également de capacités de programmation étendues. Sa bibliothèque C Math (compilateur MatLab) est basée sur les objets et contient plus de 300 procédures de traitement de données en langage C. À l'intérieur du package, vous pouvez utiliser à la fois des procédures MatLab et des procédures standard du langage C, ce qui fait de cet outil un outil puissant pour développer des applications. (en utilisant le compilateur C Math, vous pouvez intégrer n'importe quelle procédure MatLab dans des applications prêtes à l'emploi).

La bibliothèque C Math vous permet d'utiliser les catégories de fonctions suivantes :

Opérations avec des matrices ;

Comparaison de matrices ;

Résolution d'équations linéaires ;

Expansion des opérateurs et recherche de valeurs propres ;

Trouver la matrice inverse ;

Trouver un déterminant ;

Calcul de l'exponentielle matricielle ;

Mathématiques élémentaires ;

Fonctions fonctions bêta, gamma, erf et elliptiques ;

Fondamentaux des statistiques et de l'analyse des données ;

Trouver les racines des polynômes ;

Filtration, convolution ;

Transformée de Fourier rapide (FFT) ;

Interpolation;

Opérations avec des chaînes ;

Opérations d'E/S de fichiers, etc.

Cependant, toutes les bibliothèques MatLab sont différentes grande vitesse calculs numériques. Cependant, les matrices sont largement utilisées non seulement dans des calculs mathématiques tels que la résolution de problèmes d'algèbre linéaire et de modélisation mathématique, ainsi que dans le calcul de systèmes et d'objets statiques et dynamiques. Ils constituent la base de la compilation et de la solution automatiques d'équations d'état d'objets et de systèmes dynamiques. C'est l'universalité de l'appareil de calcul matriciel qui augmente considérablement l'intérêt pour le système MatLab, qui a intégré les meilleures réalisations dans le domaine de la résolution rapide de problèmes matriciels. Par conséquent, MatLab a depuis longtemps dépassé le cadre d'un système matriciel spécialisé, devenant l'un des systèmes intégrés universels de mathématiques informatiques les plus puissants.

Pour visualiser la simulation, le système MatLab dispose de la bibliothèque Image Processing Toolbox, qui fournit un large éventail de fonctions prenant en charge la visualisation des calculs effectués directement à partir de l'environnement MatLab, le grossissement et l'analyse, ainsi que la possibilité de créer des algorithmes de traitement d'image. Les techniques avancées de bibliothèque graphique associées au langage de programmation MatLab fournissent un système ouvert et extensible qui peut être utilisé pour créer des applications personnalisées adaptées au traitement graphique.

Ainsi, le programme MatLab peut être utilisé pour restaurer des images endommagées, pour la reconnaissance de formes d'objets dans des images ou pour développer l'un de vos propres algorithmes de traitement d'image originaux. La bibliothèque Image Processing Tollbox simplifie le développement d'algorithmes de haute précision car chacune des fonctions incluses dans la bibliothèque est optimisée pour une vitesse, une efficacité et une précision maximales des calculs. De plus, la bibliothèque fournit au développeur de nombreux outils pour créer ses propres solutions et pour mettre en œuvre des applications de traitement graphique complexes. Et lors de l’analyse d’images, l’accès instantané à de puissants outils de visualisation vous permet de visualiser instantanément les effets de l’agrandissement, de la reconstruction et du filtrage.

Parmi les autres bibliothèques du système MatLab, on peut également noter la System Identification Toolbox - un ensemble d'outils permettant de créer des modèles mathématiques de systèmes dynamiques basés sur les données d'entrée/sortie observées. Une particularité de cette boîte à outils est la présence d'une interface utilisateur flexible qui vous permet d'organiser les données et les modèles. La bibliothèque System Identification Toolbox prend en charge les méthodes paramétriques et non paramétriques. L'interface du système facilite le prétraitement des données, en travaillant avec le processus itératif de création de modèles pour obtenir des estimations et mettre en évidence les données les plus significatives. Effectuez rapidement des opérations telles que l'ouverture/la sauvegarde de données et la sélection d'une zone avec un minimum d'effort valeurs possibles données, supprimant les erreurs, empêchant les données de quitter leur niveau caractéristique.

Les ensembles de données et les modèles identifiés sont organisés graphiquement, ce qui facilite le rappel des résultats des analyses précédentes au cours du processus d'identification du système et la sélection des prochaines étapes possibles du processus. L'interface utilisateur principale organise les données pour afficher le résultat déjà obtenu. Cela facilite les comparaisons rapides des estimations des modèles, vous permet de mettre en évidence graphiquement les modèles les plus significatifs et d'examiner leurs performances.

Quant aux calculs mathématiques, MatLab donne accès à un nombre énorme routines contenues dans la bibliothèque de la Fondation NAG de Numerical Algorithms Group Ltd (la boîte à outils contient des centaines de fonctions provenant de divers domaines des mathématiques, et bon nombre de ces programmes ont été développés par des spécialistes de renom dans le monde). Il s’agit d’une collection unique d’implémentations de méthodes numériques modernes de mathématiques informatiques, créées au cours des trois dernières décennies. Ainsi, MatLab a absorbé l'expérience, les règles et les méthodes de calcul mathématique accumulées au cours de milliers d'années de développement des mathématiques. La documentation complète fournie avec le système peut à elle seule être considérée comme un ouvrage de référence électronique fondamental en plusieurs volumes sur les logiciels mathématiques.

Parmi les défauts du système MatLab, on peut noter la faible intégration de l'environnement (beaucoup de fenêtres, avec lesquelles il vaut mieux travailler sur deux moniteurs), un système d'aide peu clair (et pourtant le volume de documentation propriétaire atteint presque 5 mille pages, ce qui rend la révision difficile) et éditeur de code spécifique pour les programmes MatLab. Aujourd'hui, le système MatLab est largement utilisé dans la technologie, la science et l'éducation, mais il reste néanmoins plus adapté à l'analyse de données et à l'organisation de calculs qu'à des calculs purement mathématiques.

Par conséquent, pour effectuer des transformations analytiques dans MatLab, le noyau de transformation symbolique Maple est utilisé, et depuis Maple, vous pouvez accéder à MatLab pour des calculs numériques. Ce n'est pas pour rien que les mathématiques symboliques Maple sont devenues partie intégrante d'un certain nombre de progiciels modernes, et l'analyse numérique de MatLab et des boîtes à outils sont uniques. Néanmoins, les progiciels mathématiques Maple et MatLab sont des leaders intellectuels dans leurs classes, ce sont des modèles qui déterminent le développement des mathématiques informatiques.

MÉTHODES MATHÉMATIQUES DE PRÉVISION EN GESTION D'ENTREPRISE

Kovaltchouk Svetlana Petrovna

Étudiant de 4ème année, Département de Cybernétique Économique, VNAU, Vinnitsa

Koliadenko Svetlana Vassilievna

directeur scientifique, docteur en économie, professeur à VNAU, Vinnitsa

Introduction. Dans les conditions de développement des relations marchandes pour assurer une gestion efficace de l'entreprise, l'adoption décisions de gestion il faut effectuer analyse approfondie des indicateurs économiques de ses activités en dynamique, ce qui permet d'utiliser des méthodes de prévision au fur et à mesure de leur disponibilité nouvelle information identifier les modèles de changements au fil du temps et déterminer les moyens raisonnables de développement de l'objet de gestion.

Analyse des dernières recherches et publications. La question de la prévision a été étudiée dans les travaux scientifiques d'économistes nationaux et étrangers célèbres tels que I. Ansoff, V. Geets, G. Dobrov, M. Dolishny, A. Ilishev, M. Kizim, V. Kucheruk, V. Lisichkin, A. Melnik, M. Meskon, Z. Mykytyshyn, I. Mikhasyuk, B. Panasyuk, M. Porter, G. Savitskaya, R. Sayfulin et autres. Néanmoins, il existe un besoin objectif de poursuivre les recherches sur les fondements méthodologiques et appliqués de la prévision des activités des entreprises, en tenant compte des particularités de la formation d'une économie de marché.

Le but de l'étude est la systématisation des méthodes mathématiques de prévision économique dans la gestion d'entreprise, la détermination de leurs caractéristiques, tâches et principes.

Principaux résultats de l'étude. Une prévision (du grec pronostic - prospective) est une tentative de déterminer l'état d'un phénomène ou d'un processus dans le futur. Le processus de formation d’une prévision est appelé prévision. La prévision dans la gestion d'une entreprise est une justification scientifique des changements quantitatifs et qualitatifs possibles dans son état, son niveau de développement dans son ensemble, ses domaines d'activité individuels dans le futur, ainsi que les moyens alternatifs et le calendrier pour atteindre l'état attendu.

Le processus de prévision repose toujours sur certains principes :

  • détermination – une description significative des tâches de recherche assignées ;
  • systématique - construire une prévision basée sur un système de méthodes et de modèles caractérisés par une certaine hiérarchie et séquence ;
  • validité scientifique - prise en compte globale des exigences des lois objectives du développement social, utilisation de l'expérience mondiale ;
  • description multi-niveaux – description d'un objet en tant que phénomène intégral et en même temps en tant qu'élément d'un système plus complexe ;
  • unité de l'information - l'utilisation de l'information pour une généralisation et une intégrité également égales des fonctionnalités ;
  • adéquation aux modèles objectifs de développement - identification et évaluation des relations stables et des tendances de développement de l'objet ;
  • solution cohérente de l'incertitude - une procédure étape par étape pour passer de l'identification des objectifs et des conditions existantes à la détermination des orientations possibles de développement ;
  • alternance - identifier la possibilité de développer un objet soumis à différentes trajectoires, diverses relations et relations structurelles.

La prévision remplit trois fonctions principales et comporte trois étapes :

  • prévoir les tendances possibles des changements dans le futur, identifier les modèles, les tendances et les facteurs à l'origine de ces changements (étape de recherche) ;
  • identification d'options alternatives pour influencer le développement d'un objet à la suite de la prise de certaines décisions, évaluation des conséquences de la mise en œuvre de ces décisions (étape de justification des décisions de gestion) ;
  • évaluation des résultats de la mise en œuvre des décisions, des changements imprévus de l'environnement extérieur, afin de coordonner la décision en temps opportun (étape d'observation et de correction).

Ces trois fonctions et trois étapes sont mutuellement liées, répétées de manière itérative et font partie intégrante de l'activité de gestion dans n'importe quel domaine.

La qualité des prévisions dépend en grande partie des méthodes de prévision, qui sont un ensemble de techniques et d'évaluations qui permettent, à partir d'une analyse des connexions internes et externes passées (rétrospectives) inhérentes à un objet, ainsi que de leurs évolutions, d'en dresser un conclusion avec une certaine probabilité quant à l'évolution future de l'objet.

Sur la base du principe de justification de l'information, on distingue les méthodes suivantes :

JE. Méthodes factuelles basées sur des informations factuelles sur l'objet de prévision et son évolution passée :

  • méthodes statistiques : extrapolation et interpolation, analyse de corrélation et de régression, modèles factoriels ;
  • analogies : mathématiques, historiques ;
  • les méthodes de prévision avancées, qui reposent sur certains principes de traitement particulier de l'information scientifique et technique et mettent en œuvre dans la prévision sa propriété de devancer le développement du progrès scientifique et technologique (méthodes d'analyse de la dynamique des brevets, méthodes de prévision des publications).

II. Méthodes expertes, qui sont basées sur des informations subjectives fournies par des spécialistes experts au cours de procédures systématiques pour identifier et résumer leurs réflexions sur l'état futur des choses. Ces méthodes se caractérisent par une prévision de l’avenir basée à la fois sur des preuves rationnelles et sur des connaissances intuitives. Ils sont généralement de nature qualitative. Ces méthodes incluent les éléments suivants :

  • direct : interrogatoire d'experts ; analyse d'expert, lorsqu'un expert ou une équipe d'experts pose et résout lui-même des questions qui mènent à l'objectif fixé ; avec commentaires ; la méthode des « commissions », qui peut impliquer l'organisation d'une « table ronde » et d'autres événements similaires, au sein desquels les réflexions d'experts sont concertées ; la méthode du « brainstorming », qui se caractérise par la génération collective d'idées et la résolution créative de problèmes ; la méthode Delphi, qui consiste à mener des enquêtes par questionnaire auprès de spécialistes dans le domaine de connaissance choisi.

III. Méthodes combinées à base d'informations mixtes, dans lesquelles des informations factuelles et expertes sont utilisées comme informations primaires : modèles d'équilibre ; modèles d'optimisation.

L'une des méthodes de prévision les plus courantes sont les méthodes économétriques. Il s'agit d'un ensemble de disciplines scientifiques économiques et mathématiques qui étudient les processus et les systèmes économiques. Un modèle économétrique est un système d’équations et d’identités de régression (stochastiques). Les coefficients des équations sont déterminés par des méthodes de statistiques mathématiques basées sur des informations économiques et statistiques spécifiques, et la méthode la plus courante pour quantifier les coefficients est la méthode des moindres carrés avec ses modifications. Les équations économétriques expriment la dépendance des variables étudiées à l'évolution d'autres indicateurs, y compris l'état de ces variables dans le passé. Les identités établissent une interdépendance entre des variables qui reflètent la structure des statistiques utilisées.

La plateforme mathématique des modèles économétriques consiste en une corrélation et analyse de régression. L'analyse de corrélation permet de sélectionner les facteurs les plus significatifs et de construire l'équation de régression correspondante.

L'analyse de corrélation fournit : la mesure du degré de connexion entre deux ou plusieurs variables ; identification des facteurs qui influencent le plus significativement la variable dépendante ; détermination de liens causals jusqu'alors inconnus (la corrélation ne révèle pas directement les liens causals entre les phénomènes, mais détermine la valeur numérique de ces liens et la probabilité de jugements sur leur existence). Les principaux moyens d'analyse sont les coefficients de corrélation appariés, partiels et multiples.

L'analyse de régression permet de résoudre les problèmes suivants :

  • établir des formes de dépendance entre une variable endogène et une ou plusieurs variables exogènes (positives, négatives, linéaires, non linéaires). Une variable endogène est généralement notée Oui, et exogène (exogène), qui est également appelé régresseur, – X;
  • définition de la fonction de régression. Il est important non seulement d'indiquer tendance générale changements dans la variable dépendante, et connaître également le degré d'influence sur la variable dépendante des facteurs principaux si les facteurs restants (mineurs, secondaires) n'ont pas changé (étaient au même niveau moyen) et que les éléments aléatoires ont été exclus ;
  • évaluation valeurs inconnues dépendant remplaçable.

Selon l'objectif de la prévision, l'ensemble et la structure des variables incluses dans le modèle sont déterminés. Basé analyse théorique Sur la base des relations entre les variables, un système d'équations est formé et les paramètres des équations de régression sont estimés. À la suite d'une considération différentes options les structures des équations du système restent celles qui présentent les meilleures caractéristiques qualitatives et ne contredisent pas la théorie économique. Et la dernière étape de construction du modèle contient un test de sa capacité à recréer la dynamique du développement économique passé, c'est-à-dire simulation sur un modèle de période de base, ce qui permet d'évaluer sa qualité.

Les objets de prévision dans la gestion d'entreprise peuvent être : la demande, la production de produits (performance de services), le volume des ventes, le besoin en ressources matérielles et en main-d'œuvre, les coûts de production et de vente des produits, les prix, les revenus de l'entreprise, son développement technique.

Les sujets de prévision sont les services de planification et économiques de l'entreprise, les services marketing et techniques.

L'élaboration de plans prévisionnels (pour l'avenir, à court terme (année, trimestre, mois) et opérationnels (jour, décennie)) s'effectue aussi bien pour l'entreprise dans son ensemble que pour ses divisions structurelles : ateliers, sections, services. Lors de la prévision des indicateurs, il est conseillé d'utiliser le système de méthodes suivant : expertises, modèles factoriels, méthodes d'optimisation, méthode normative.

Conclusions. Pour prendre une décision, il est nécessaire de disposer d'informations fiables et complètes, sur la base desquelles est élaborée une stratégie de production et de vente de produits. À cet égard, le rôle des prévisions augmente, l'expansion nécessaire du système et l'amélioration des méthodes de prévision utilisées dans la pratique augmentent. Une attention particulière doit être accordée à la prévision de la demande de produits, des coûts de production, des prix et des bénéfices. A cet effet, une étude des marchés nationaux et mondiaux est réalisée et une analyse de l'élasticité de la demande est réalisée.

Bibliographie:

  1. Luginine O.E. Économétrie : manuel. aide aux étudiants l'enseignement supérieur directeur – 2e éd., révisée. et supplémentaire – K. : Centre littérature pédagogique, 2008. – 278 p.
  2. Orlov A.I. Économétrie. – M. : Examen, 2002. – 576 p.
  3. Prisenko G. V., Ravikovich E. I. Prévision des processus socio-économiques : manuel. allocation – K. : KNEU, 2005. – 378 p.
  4. Stetsenko T. O., Tishchenko O. P. Gestion de l'économie régionale : manuel. allocation Établissement d'enseignement supérieur d'État de Kyiv. national éco. Université nommée d'après V. Getman. – K. : KNEU, 2009. – 471 p.
  5. Yakovets Yu.V. Prévisions des cycles et des crises. – M. : MFK, 2000. – P. 42.

Méthode d'extrapolation des tendances

Le modèle de tendance est modèle mathématique, décrivant l'évolution de l'indicateur prédit ou analysé uniquement en fonction du temps et ayant la forme : y = f(t).

Il décrit la tendance du développement (changement) d'un système socio-économique assez stable au fil du temps, en particulier des indicateurs de développement globaux tels que le PNB (PIB), le PNN, le revenu, l'inflation, le chômage.

La méthode qui utilise des modèles de tendance dans les prévisions est appelée méthode d’extrapolation des tendances. Il s'agit de l'une des méthodes de prévision passive et est appelée prévision « naïve », car elle suppose une stricte inertie du développement, qui se présente sous la forme d'une projection des tendances passées dans le futur, et, surtout, l'indépendance des indicateurs de développement par rapport à certains facteurs. Il est clair que les tendances qui se sont formées dans le passé ne peuvent pas être transférées au futur. Les raisons en sont les suivantes :

a) dans les prévisions à court terme, l'extrapolation des moyennes passées conduit au fait que les écarts inhabituels dans les deux sens par rapport aux tendances sont négligés (ou passent inaperçus). Dans le même temps, pour la prévision ou le plan actuel (à court terme), la tâche principale est d'anticiper ces écarts ;

b) les prévisions à long terme utilisent un niveau d'agrégation si élevé qu'il ne prend pas en compte les changements dans la structure des produits manufacturés, les produits eux-mêmes, les changements dans la technologie de production, les caractéristiques du marché, c'est-à-dire tout ce qui constitue les tâches principales de la planification stratégique.

Un système socio-économique, contrairement à un système physique fermé, est un système ouvert et réactif, évoluant en fonction des conditions externes et de l'introduction de nouvelles variables. Par conséquent, même si l’analyse rétrospective des situations peut être plus ou moins réussie, la prévision de l’avenir s’avère généralement inefficace. Ce qui est important, c’est qu’une analyse détaillée et minutieuse du cours du développement dans le passé révèle presque toujours des ralentissements de l’activité économique, qui sont stoppés et éliminés non pas en attendant passivement que les « forces naturelles » rétablissent l’équilibre, mais par des efforts énergiques de gestion des organismes gouvernementaux visant à surmonter des circonstances défavorables.

L'analyse statistique réalisée à des fins d'extrapolation vise souvent à identifier la nature de la réaction de l'appareil de gestion, évitant ainsi les ralentissements attendus. Il est nécessaire que l'analyse pose et résolve le problème de l'identification de la nature de la régulation étatique, de la politique économique, l'efficacité de diverses interventions dans diverses conditions.

Il ne faut pas négliger les fluctuations brusques dans l’analyse rétrospective. Il est nécessaire d’effectuer une analyse non seulement sur la gamme globale de produits, sinon vous risquez de « rater » le début des changements structurels.

En résumant ce qui précède, on peut noter qu'il est nécessaire de transférer très soigneusement les tendances qui se sont formées dans le passé vers le futur pour les raisons suivantes :

a) à l'avenir, l'efficacité de nombreux facteurs pourrait changer, notamment le taux d'utilisation des acquis du progrès scientifique et technique ;

b) le passé a été déterminé non seulement par le développement « naturel » des processus économiques, mais dans une assez large mesure par la politique de l'État en matière de gestion économique et les méthodes de régulation de l'État ;

c) l'extrapolation due à des indicateurs macroéconomiques agrégés élevés ne révèle pas de changements dans la structure de production, de changements structurels dans le développement des industries et des régions.

De nombreux auteurs mettent en garde contre un enthousiasme excessif dans l'extrapolation de la tendance des indicateurs socio-économiques, car même au niveau micro, la tendance n'est considérée que comme un point de départ de prévision, un outil pour obtenir des « matières premières de prévision ». L'extrapolation de tendance est principalement utilisée dans la prévision opérationnelle et dans le SES stable - dans la prévision à court terme.

Méthode de modélisation économétrique

L'un des outils les plus importants pour l'analyse et la prévision des systèmes socio-économiques est la méthode de modélisation économétrique, qui est la plus efficace dans le cas de systèmes présentant des tendances de développement stables et stables. Considérons diverses modifications du modèle économétrique (ECM).

L'ECM peut consister en une équation de régression (équation stochastique) avec un facteur. Par exemple:

y = a0 + a1 x1 - équation linéaire,

où a0 est le terme libre, a1 est le coefficient de régression.

Un exemple classique est le modèle keynésien :

Сn = f (D0), ou Сn = а0 +axD0,

où Cn est la demande des consommateurs, D0 est le revenu personnel disponible pour l’année de prévision.

L'ECM peut consister en une équation de régression avec plusieurs facteurs, c'est-à-dire une équation multivariée. Par exemple:

y = a0 + a1xl+a2x2+...+anxn, où n est le nombre de facteurs.

L'ECM peut être constitué de plusieurs équations de régression. Ces équations sont dites simultanées car elles sont résolues comme si elles étaient en même temps, séquentiellement les unes après les autres. De plus, ils peuvent être interconnectés, c'est-à-dire les variables de résultat du premier

les équations sont utilisées comme facteurs pour trouver la variable résultante de la deuxième équation. Les équations de régression peuvent être indépendantes les unes des autres. Dans ce cas, chaque équation est résolue indépendamment des autres équations.

Un système d'équations linéaires interconnectées ressemble à ceci :

x4 = y0 + y1x1 + y2x2.

Dans ce modèle économétrique, x1, x2 et x4 sont des variables endogènes modélisées au sein de cet ECM, et x2 est un indicateur exogène prédit en dehors de cet ECM (au sein d'un autre modèle ou par analyse experte). Un exemple classique d’ECM composé d’équations indépendantes est le modèle d’équilibre de la demande globale et de l’offre globale.

L'ECM peut également utiliser des modèles de tendance, par exemple, un ou plusieurs indicateurs exogènes, dont les évolutions au fil du temps sont de nature « douces », peuvent être prédits à l'aide du modèle de tendance y = f(t). Même si l’on peut considérer qu’il s’agit d’une prévision hors modèle, puisqu’un facteur exogène est prédit. Dans le cadre des calculs ECM, des méthodes d'expertise sont également utilisées pour prédire les variables exogènes.

Outre les équations de régression qui décrivent les processus probabilistes (stochastiques), l'ECM comprend également les équations dites définitionnelles, ou identités. Par exemple, le modèle prédit l'investissement public (Jg) et privé (Jp) à l'aide de deux équations de régression indépendantes, et la troisième équation nous permet de calculer la valeur prévisionnelle de l'investissement total :

J = Jg+Jp est une identité.

L’ECM utilise également ce que l’on appelle les « équations d’équilibre », dont la forme est similaire aux identités. Par exemple, une équation exprimant la condition d’équilibre à marché des matières premières: AD = AS - la demande globale est égale à l'offre globale.

En général, l'ECM est appelé un système d'équations et d'identités de régression. Certains auteurs appellent les équations de régression des équations « explicatives », puisque les changements dans les valeurs d'un ensemble de facteurs-arguments expliquent le changement de la variable résultante, ou plutôt une partie du changement réel global. Plus la partie expliquée est grande, plus l’équation de régression explique mieux (de manière plus adéquate) la réalité.

Cela soulève alors la question suivante : quelle est la différence entre la méthode d’extrapolation de tendance et la méthode économétrique ? Le fait est que si les dépendances identifiées entre la fonction (Y) et le facteur-arguments (X) sont utilisées sans changement, c'est-à-dire extrapolées, la seule différence est que la méthode économétrique permet analyse de contenu la dépendance de l'indicateur étudié (prédit) à l'égard de l'un ou l'autre indicateur, et l'extrapolation des tendances ne reflète que l'évolution de l'indicateur étudié au fil du temps. Mais la principale différence est que les modèles économétriques permettent d'élaborer des options de développement d'un objet socio-économique en modifiant les conditions de son fonctionnement (prévision active), conduisant à des valeurs différentes des facteurs endogènes, changeant les tendances de leurs relations. en faisant varier les valeurs des facteurs exogènes, également différentes de leurs évolutions dans le temps.

En règle générale, les options de développement se distinguent par différentes valeurs de facteurs exogènes, car elles ne sont pas modélisées dans le cadre de l'ECM, elles sont incontrôlables et la plage de leurs valeurs possibles dans le futur est déterminée par la méthode d’expertises.

Les options peuvent également différer par les différentes valeurs des instruments de régulation gouvernementale, le nombre et le niveau des impôts, le taux d'actualisation et le taux des réserves obligatoires.

Après avoir examiné l'essence et le contenu de l'ECM, passons à une description spécifique de la procédure (algorithme) de développement de l'ECM, en utilisant l'expérience de modélisation du Japon13.

1. Avant de commencer le processus de développement d'un ECM, un ou plusieurs objectifs sont fixés pour atteindre lesquels l'ECM est en cours de développement. Par exemple, lors de l'élaboration d'un modèle à long terme du Japon pour une période de prévision de 20 ans, l'objectif commun à tous les modèles de ce type était d'identifier les perspectives de croissance de la production SES en termes physiques (en prix constants) sur la base de données contenues dans les comptes du revenu national. Dans le même temps, un objectif spécifique a été fixé : étudier l'évolution de composantes des actifs fixes telles que les investissements publics et privés dans la construction de logements et établir leur relation avec la croissance globale de l'économie. L'accent mis sur ces composantes des actifs fixes est dicté par le fait que pour le Japon, ce sont les facteurs les plus importants déterminant le développement à long terme du SES, et par le fait que le deuxième objectif ne peut être atteint qu'en long terme en raison du temps de formation et de la durée de vie de ces composants. Les objectifs du modèle japonais pour une période de prévision de 10 ans sont fondamentalement les mêmes que ceux du modèle de 20 ans, mais le premier a également d'autres objectifs spécifiques, à savoir : -

explorer les tendances dans deux secteurs de l'économie, les changements dans leur rôle dans l'économie et considérer leur impact sur la croissance globale du SSE dans son ensemble ; -

expliquer la structure des exportations nettes à long terme ; -

fournir une prévision à long terme avec plus de détails que celle fournie dans le modèle sur 20 ans.

Si les modèles à long terme permettent de présenter les voies de développement du SSE au niveau d'indicateurs macro hautement agrégés, alors les modèles à moyen terme (4-7 ans) visent généralement à refléter les résultats de l'influence du contexte socio-économique de l'État. politique sur les indicateurs les plus importants du développement du SSE. Cela aidera le gouvernement à quantifier les différentes orientations des politiques socio-économiques et à déterminer la meilleure option en termes de bien-être public.

Des objectifs plus spécifiques peuvent également être présentés. Par exemple, le modèle à moyen terme du Japon fixe les objectifs suivants :

Explication des mouvements de prix ; -

explication des mouvements des niveaux de salaires; -

assurer le contrôle nécessaire de tout écart entre les objectifs prévus par le plan et la situation réelle pouvant survenir lors de la mise en œuvre du plan.

2. Après avoir déterminé les objectifs de prévision, un diagramme des relations de cause à effet dans les modèles est développé. Cela permet de déterminer l'ensemble nécessaire d'équations et d'identités de régression, un complexe de facteurs exogènes et endogènes, y compris de contrôle et contrôlés, pour déterminer un algorithme de calculs prévisionnels, et les relations entre les indicateurs de développement du SES du pays. Ce diagramme peut également être appelé logique-informationnel, car il reflète la logique des relations de prévision et d'information entre les blocs du modèle et ses équations individuelles. Dans ce cas, les équations et identités structurelles (fonctionnelles) doivent être combinées avec la structure du système de comptabilité nationale. Par exemple, le modèle japonais de délai d'exécution de 20 ans utilise une fonction de production pour prévoir le PNB et une fonction d'épargne pour prévoir le stock total de capital. L’offre de travail est déterminée, ou plutôt fixée de manière exogène. Un paramètre est introduit qui caractérise le niveau de progrès technique dans dans un sens large en fonction du temps (/).

Une autre spécificité du modèle est que tout le capital est également réparti par la méthode experte (de manière exogène) entre les secteurs privé et public, alors que seul le capital fixe privé est utilisé dans la fonction de production, et aussi que les exportations nettes sont également déterminées de manière exogène. Chaque modèle a ses propres spécificités, qui sont déterminées par les caractéristiques du pays, l'approche d'un groupe particulier de prévisionnistes pour résoudre les problèmes de prévision, leur expérience et leur art (voir le chapitre 6 pour plus de détails).

3. Ensuite, après avoir reçu un système d'équations fonctionnelles et d'identités reflétant les relations entre les indicateurs du développement du SSE, à l'aide de l'appareil d'analyse de corrélation-régression, les coefficients de régression (a1) sont déterminés pour les facteurs-arguments des équations, c'est-à-dire cet ECM est résolu en utilisant la méthode des moindres carrés ou d'autres méthodes plus complexes et précises.

À cette fin, on détermine d'abord la valeur prédite d'une variable exogène (dans le cas d'une équation à un facteur) ou de variables exogènes (dans le cas d'une équation multivariée), qui sont des facteurs déterminant la première variable endogène (calculée par modélisation). ) variable. Ensuite, la valeur de cette variable endogène est utilisée comme facteur dans la deuxième équation de régression. Si, en plus de ce facteur, la deuxième équation contient également des facteurs exogènes, leurs valeurs sont à nouveau prédites et utilisées pour calculer la deuxième équation. De cette façon, l’ensemble du système d’équations ECM est résolu.

Le premier facteur (facteur de la première équation) est généralement choisi parmi les facteurs de développement significatifs qui changent assez « doucement » et peuvent être déterminés par extrapolation de tendance. Une autre approche pour choisir le premier facteur est son importance pour le développement du SES, lorsque son importance dans la période de prévision est décisive et peut donc être interprétée comme un objectif de développement. En d'autres termes, le prévisionniste fixe la valeur du premier indicateur exogène comme objectif (standard) basé sur l'hypothèse d'évolution du SSE. Par exemple, une solution ECM peut partir de l'hypothèse selon laquelle le PNB d'un pays augmentera de 3 % par an au cours de la période de prévision. Dans le modèle à long terme du Japon sur une période de 20 ans, le PNB du pays a été identifié comme un tel facteur.

Mais la variable dite prédéterminée (indicateur d'évolution de l'année précédente par rapport à l'année de prévision) peut également être utilisée comme première variable. Par exemple, dans le modèle à long terme du Japon pour une période de 10 ans, le PNB est déterminé de manière endogène et les indicateurs exogènes étaient la superficie des terres cultivées, ainsi que des indicateurs tels que le capital privé en agriculture et les capitaux privés dans les industries de transformation pour l'année précédente par rapport aux prévisions.

4. À l'étape suivante, l'intervalle de confiance pour l'utilisation des résultats obtenus est déterminé.

5. Ensuite, le degré d'adéquation du modèle au processus (objet) étudié est vérifié par année de la période de pré-prévision. La vérification s'effectue en deux étapes. Premièrement, les valeurs des facteurs (endogènes et exogènes) d'une certaine année de la période pré-prévue, des données statistiques, sont insérées dans les équations du modèle. reporting pour lesquels ont été utilisés dans la matrice rétrospective (période de calcul), alors le système d'équations du modèle est résolu.

Généralement, le test est réalisé sur la base de données couvrant plusieurs années (de préférence relativement calmes, lorsque le SES n'a pas connu de chocs particuliers).

Par exemple, dans la constitution d'une matrice rétrospective en 2000 pour prévoir la période 2001-2005. Des données allant jusqu’à 1998 inclus ont été utilisées. Etant donné que l'ECM développé reflète les tendances de développement du SES précisément dans cette période rétrospective, l'adéquation du modèle de réalité est vérifiée par les années de la période de base et nécessairement par la dernière année, 1998. Il s’agit d’un contrôle « de base ex post ». Ensuite, un contrôle « ex post extra-basique » est effectué. À cette fin, le modèle utilise les données de déclaration statistique obtenues en janvier-février 2000 pour 1999, c'est-à-dire ne participant pas au développement d’ECM.

Il est également possible de vérifier « ex-post extra-baseline » à partir des données de 2000, année de la période de pré-prévision au cours de laquelle les options de prévision finales sont formées. À cette fin, les données de reporting du premier trimestre 2000 sont utilisées et une prévision opérationnelle est établie pour 9 mois de 2000. Les données prévisionnelles pour 2000 sont saisies dans le modèle de prévision. Sur la base des résultats de contrôles avec la participation d'experts, des ajustements sont apportés tant au modèle lui-même qu'à ses éléments, notamment les facteurs exogènes.

Par la suite, après chaque année de la période de prévision, les données de reporting de ces années sont utilisées à des fins de vérification. Ce type de vérification de modèle est appelé « ex-ante ».

Ceci est schématisé sur la Fig. 3.3.

1990 ex post de base 1999-2000 ex ante 2005

transition rétrospective ex post

extra-basique

période de prévision

période pré-prévisionnelle

Riz. 3.3. Diverses périodes de vérification des prévisions

Il est important de rappeler que bien que les modèles statistiques permettent d'obtenir une interprétation qualitative des dispositions théoriques, en raison de leur nature probabiliste (stochastique), ces interprétations ne peuvent être perçues comme une preuve stricte ou une réfutation des dispositions théoriques. S'il existe une divergence entre la théorie et les résultats des calculs mathématiques, cela indique plutôt que les calculs mathématiques sont incorrects. En règle générale, les équations de régression qui contredisent clairement la théorie économique sont exclues de l'ECM.

Par ailleurs, les variables de politique économique (variables instrumentales) devraient également faire l’objet d’une révision. Cette procédure est la plus appropriée dans les cas où il est prévu de réviser périodiquement le plan original, c'est-à-dire

Faire un examen à mi-parcours plan d'état« glisser » au plus près de la réalité.

La nécessité d'un système de vérification repose sur le postulat : si un modèle ne peut pas reproduire de manière satisfaisante le développement (mouvement) passé du système, il n'y a aucune raison de croire qu'il sera capable de reproduire le futur et qu'il pourra être utilisé à des fins de prédiction. . Mais il ne faut pas oublier que l'ECM reflète la tendance de développement du SES, c'est-à-dire il semble « faire la moyenne » et « lisser » la courbe de développement du SSE dans un espace multidimensionnel.

Si la période calculée (rétrospective) est de 10 à 15 ans et que les tendances de développement ont considérablement changé ces dernières années, l'ECM ne le montrera pas. La vérification de l'ECM pour les dernières années de la période pré-prévue révélera ces changements. S'ils sont stables, de longue durée, associés par exemple à l'apparition d'une situation de crise dans le pays, sur le marché mondial ou, à l'inverse, à la reprise économique (le passage du SES d'une phase de développement à un autre), puis en utilisant la méthode des expertises il est nécessaire de modifier les équations de régression du modèle, jusqu'à l'introduction de nouveaux facteurs de développement avec leurs propres coefficients de régression. Mais dans ce cas, la frontière entre les modèles économétriques et les modèles de simulation, qui sera discutée ci-dessous, est déjà perdue.

Ainsi, lors de l’élaboration de prévisions économétriques, bien qu’elles soient basées sur un modèle mathématique, l’utilisation efficace d’autres méthodes de prévision et la capacité du chercheur à mettre les acquis de la théorie économique au service de la prévision jouent un rôle important. Les prévisions économétriques sont une synthèse de diverses méthodes de prévision.

Étant donné que la base de l'ECM est un système d'équations de régression, considérons leurs exigences de base.

1. Adéquation de la forme de connexion de l'équation à l'objet étudié. La forme de la relation est généralement définie par le prévisionniste lui-même en fonction de son idée de l'objet de prévision, mais elle peut également être sélectionnée à l'aide de divers coefficients estimés de l'équation. Cependant, il n'est pas toujours possible d'utiliser une forme de communication linéaire (additionnelle), c'est pourquoi, dans les ECM de divers pays, une forme de communication puissante (multiplicative) est souvent utilisée. Par exemple, la fonction de production Cobb-Douglas et ses modifications sont largement connues.

Il est conseillé de réduire le modèle à une forme linéaire, puisque tout l'appareil d'analyse de corrélation et de régression est axé sur la linéarité des relations :

Y = a0 + a1X1 + a2X2 + … + anXn

Mais si vous choisissez une relation de pouvoir comme :

Y = a0X1a1+ X2a2 + … + Xnan

alors on peut le réduire sous forme linéaire en prenant des logarithmes :

InY = In a0 + a1 In X1 + a2 In X2 + … + an In Xn

2. Importance des facteurs-arguments. L'établissement d'un ensemble des facteurs les plus significatifs influençant la valeur de l'indicateur (fonction) résultant dépend principalement des connaissances du prévisionniste ou de l'ensemble de son groupe et des experts impliqués. La théorie économique, de par ses capacités, donne une idée des facteurs influençant la valeur de divers indicateurs macroéconomiques. L'appareil d'analyse de corrélation et de régression permet de quantifier l'importance de chaque facteur tant en termes absolus que relatifs (en pourcentage de l'influence totale des facteurs). 3.

Prévisibilité des facteurs, c'est-à-dire un niveau de fiabilité suffisant de prédiction hors modèle ou la possibilité d'obtenir des valeurs prédictives de facteurs grâce à leur modélisation. 4.

L'absence de lien très étroit entre les facteurs - multicolinéarité.

Premièrement, pour établir l'absence de multicolinéarité, des coefficients de corrélation par paires sont calculés entre tous les facteurs par paires. Si la relation linéaire entre deux facteurs est suffisamment étroite, le prévisionniste, à sa discrétion, laisse l'un des facteurs pour des recherches plus approfondies.

Étant donné que la détermination de la valeur « seuil » de l'étroitesse de la relation pour établir la multicolinéarité est assez subjective, la considération suivante peut être prise comme critère. 5.

La signification des coefficients de régression (aj), c'est-à-dire leur différence significative par rapport à zéro. Pour que l’ECM ait un sens, il est nécessaire que tous les coefficients de régression, à l’exception du terme libre (ao), soient significatifs. La signification est déterminée selon les critères d’analyse de corrélation et de régression. Si nécessaire et justifié, les coefficients de régression sont ajustés.

6. Conformité de l'équation de régression aux exigences standard. Dans ce cas, l'évaluation est également réalisée selon les critères correspondants de l'appareil de corrélation-régression. Si une équation ne répond pas aux exigences standard, elle doit être ajustée ou exclue de l'ECM.

La prise en compte des caractéristiques des modèles économétriques permet de formuler les avantages de la modélisation par rapport aux autres méthodes d'élaboration de prévisions.

Parmi les principaux avantages, nous soulignons : 1)

en tenant compte de l'influence mutuelle de divers facteurs ; 2)

la capacité de prendre en compte l'impact des facteurs externes (exogènes) par rapport au modèle de facteurs économiques et non économiques ; 3)

obtenir des prévisions multivariées mutuellement équilibrées pour un grand nombre d'indicateurs ; 4)

utilisation conjointe de diverses méthodes basées sur des modèles ; 5)

les autres avantages des modèles économétriques sont entièrement déterminés par le développement de la technologie informatique.

Grâce à l'informatique, il est possible, d'une part, d'augmenter la dimension des modèles, tout en considérant des relations économiques de plus en plus subtiles. Il est important de noter que les calculs de modèles permettent d'obtenir des prévisions non seulement pour un grand nombre d'indicateurs (ces dernières sont également possibles sur la base de modèles de séries chronologiques), mais aussi équilibrées, interconnectées dans un système cohérent. C'est l'un des avantages les plus frappants de ces modèles. Si les experts sont capables d'élaborer des prévisions cohérentes, en règle générale, pour plusieurs indicateurs (les enquêtes et enquêtes couvrent des dizaines de variables), alors les modèles économétriques permettent désormais, sans trop d'effort, de prédire régulièrement l'évolution d'un très grand nombre d'indicateurs ( 1 à 3 000 dans un seul modèle). Deuxièmement, l'automatisation des calculs ouvre la possibilité d'élaborer non seulement une prévision de base la plus probable, mais également des options alternatives de développement économique, en tenant compte de l'évolution des conditions externes ou internes. La multivariance des prévisions augmente le niveau scientifique des prévisions socio-économiques en général, car elle permet d'évaluer non pas une, mais plusieurs trajectoires de développement les plus probables.

Cette approche ne peut pas être mise en œuvre sur la base de l’utilisation de séries chronologiques et d’enquêtes économiques, où des changements et des ajustements importants doivent être introduits pour obtenir des options de prévision. Les prévisions d'experts multivariées sont plus courantes, mais elles ne peuvent rivaliser avec l'ECM ni par le nombre d'équations ni par la gamme de variables utilisées.

Examinons de plus près un avantage aussi important de l'ECM que la prise en compte de l'influence de facteurs économiques externes. Le développement effectif du SES est soumis à de fortes interactions grand nombre des facteurs qui souvent ne peuvent être décrits dans le cadre du modèle étudié. Par exemple, lors de l'élaboration de macromodèles pour un pays spécifique, il est nécessaire de prendre en compte les conditions économiques externes, qui, bien entendu, ne sont pas déterminées par les variables incluses dans la nomenclature de ce modèle. Pour cette raison, un certain nombre de variables ne peuvent pas être définies de manière adéquate dans les modèles et doivent donc* y être introduites de l'extérieur. Tout d’abord, des indicateurs tels que les exportations de biens et les migrations de capitaux et de main-d’œuvre dépendent de la situation économique extérieure. Par conséquent, ces indicateurs sont généralement introduits de manière exogène dans le modèle. Un groupe important de variables externes sont celles qui dépendent de facteurs non économiques (politiques, sociaux, etc.). En particulier, la dynamique des dépenses publiques est déterminée non seulement par les exigences d'un développement efficace, mais dans une plus large mesure aspirations politiques administration. La prise en compte de ces aspirations dans le modèle ne peut se faire que par l’utilisation exogène de facteurs via l’influence mutuelle interne des variables du modèle.

Il convient de noter que, même s’ils présentent certains avantages par rapport aux autres méthodes de prévision, les modèles économétriques ne sont pas pour autant sans inconvénients.

Bien qu’ils constituent un outil de prévision plus pratique, ils ne résolvent pas et ne peuvent pas résoudre les problèmes fondamentaux. Tout d’abord, les modèles n’améliorent pas la précision de la prévision des tournants du développement. Ils conviennent mieux pour extrapoler les tendances de développement existantes que pour en reconnaître les changements. Pour cette raison, la prévision de la croissance économique basée sur un modèle n’est possible que grâce à l’introduction de variables externes et à divers ajustements de paramètres. De plus, la complexité et l'ambiguïté de l'interprétation des résultats, l'exigence de maintenir la précision nécessaire des prévisions compliquent leur utilisation dans les calculs réels.

Un autre inconvénient important des prévisions basées sur des modèles économétriques est le coût élevé de ces recherches, qui nécessitent l'utilisation de banques de données, d'ordinateurs et de spécialistes qualifiés pour le développement et l'exploitation de ces modèles.

Modèle de simulation

Dans la recherche socio-économique, la méthode de prévision de problèmes faiblement structurés, dont les relations de cause à effet ne sont pas suffisamment étudiées pour construire une théorie satisfaisante, est assez courante. Dans ce cas, la méthode de simulation est utilisée

Le système socio-économique de tout pays, en raison du grand nombre de facteurs impliqués dans la description de son fonctionnement, notamment dans les conditions de la phase post-industrielle, qui complique les liens entre les facteurs d'instabilité et d'incertitude dans son développement, est un objet avec des connexions faiblement structurées.

Par conséquent, pour étudier et prédire de tels objets, un système de dépendances mathématiques est construit, qui ne découlent pas nécessairement de prémisses théoriques strictes. Avec l'aide de certains techniques formelles ce système de dépendances mathématiques s'identifie à un objet réel. Après s'être assuré que le système construit reproduit au moins une partie des propriétés d'un objet réel, des influences caractérisant les conditions externes (par exemple, des facteurs exogènes et des facteurs de contrôle, y compris des variables instrumentales) sont appliquées à l'entrée du système, et les conséquences de ces influences sont reçues (supprimées) en sortie du système. De cette manière, des options de comportement pour le modèle objet sont obtenues.

Si l'objet d'étude est une certaine variable Y, alors un modèle est construit dont la construction repose sur l'hypothèse que Y est affecté par un vecteur X composé d'un certain nombre de variables k conformément à la relation fonctionnelle :

Un cas particulier de la relation fonctionnelle entre Y et X est un modèle linéaire simple :

où Qi sont quelques paramètres.

Le modèle peut être rendu encore plus réaliste (et donc plus complexe) en incluant des relations non linéaires entre Y et X, ainsi que des variables aléatoires, chacune ayant son propre poids et sa propre fonction de distribution dans le temps.

Une complication supplémentaire du modèle est associée à l'introduction de variables logiques, de divers types de restrictions et de retards qui décrivent le mécanisme de rétroaction.

Il est clair qu’un tel modèle ne peut être étudié par des méthodes analytiques.

Étant donné que les modèles de simulation peuvent prendre en compte à la fois les connexions informelles et les caractéristiques du système prédit, ils sont en mesure de refléter de manière plus adéquate son développement. Cependant, c’est la description de ces caractéristiques non formalisées qui pose la principale difficulté dans la construction de modèles de simulation.

Il est particulièrement important que les modèles de simulation dynamique permettent de tirer des conclusions sur les principales caractéristiques du développement du système qui ne dépendent pas de manière significative des conditions initiales. Ces résultats sont ensuite affinés à l’aide d’autres méthodes de prévision.

Les modèles de simulation sont conçus pour obtenir des informations sur le système modélisé et développer ensuite des estimations appropriées adaptées à la formation de solutions. À titre d'exemple, considérons un modèle de simulation pour coordonner la production et la consommation dans une économie diversifiée, présenté à la Fig. 3.4.

Le système comporte deux blocs formalisés : un bloc pour simuler la production matérielle et un bloc pour simuler la sphère de consommation. Le système met à disposition un expérimentateur capable de contrôler plusieurs paramètres de contrôle : répartition entre les industries investissements en capital, taux d'accumulation, salaires - intensité salariale par unité de production, prix de gros et de détail.

Riz. 3.4. Structure du modèle de simulation

L'expérimentateur mène un dialogue actif avec l'ordinateur. Les informations sont utilisées sur les indicateurs d'ajustement de la demande estimée pour un type de produit et sa production finale par l'industrie. Si l'indicateur dépasse un, cela signifie que la demande du produit est supérieure à l'offre ; s'il est inférieur à un, alors vice versa. Les indicateurs d'ajustement et les taux de croissance de la production brute par industrie sont analysés par l'expérimentateur du point de vue de leur recevabilité. S'ils doivent être modifiés, l'expérimentateur peut modifier l'un ou l'autre paramètre de contrôle.

Par exemple, la répartition des investissements en capital ou du revenu total de la population (à travers les ratios d'intensité salariale sectoriels), ou l'ampleur des changements de prix. Les nouveaux indicateurs d'ajustement sont déterminés par blocs. Dès que l'expérimentateur arrive à la conclusion qu'un rapport satisfaisant entre production et consommation a été atteint, il transfère le système aux calculs pour l'année suivante.

Ainsi, le travail d'un système de simulation homme-machine permet de trouver des options de prévision qui assurent la meilleure correspondance entre le revenu monétaire de la population et les volumes de biens et services offerts. La variation des paramètres de contrôle, l'évaluation des paramètres intermédiaires et le choix de la solution finale sont confiés à l'expérimentateur ; de nombreuses options de solutions possibles sont calculées sur un ordinateur.

Un jeu de simulation d'entreprise est un développement ultérieur du système de simulation et comprend, outre ses principaux éléments (un modèle de simulation et des outils d'analyse et de traitement des résultats de simulation), des moyens pédagogiques spéciaux et autres qui régulent l'influence des expérimentateurs experts, qui sont décisionnels. créateurs dans le jeu et sont intéressés à réaliser meilleurs résultats fonctionnement futur du système simulé.

Les joueurs doivent être capables d'interroger un large éventail de données à des moments aléatoires. Lors de la création d'un modèle de simulation de jeu, vous devez tout d'abord développer un système de motivation des joueurs et un scénario de jeu : une description des rôles est contenue dans les descriptions d'emploi. Certains modèles de ce type sont conçus pour être utilisés sur ordinateur, tandis que d’autres sont conçus pour une imitation sans machine.

Des modèles de simulation de jeu peuvent être créés pour des objets de n’importe quel niveau : d’un atelier à une centrale solaire. Créer un bon modèle demande beaucoup de temps (jusqu'à plusieurs années) et coûte cher ; prévoir avec son aide, c'est-à-dire Réaliser le jeu demande également de sérieux efforts, puisque le nombre de participants au jeu peut atteindre plusieurs centaines. Ces coûts sont cependant justifiés, car de tels modèles permettent d'obtenir une prévision là où aucune autre méthode ne fonctionne.

La modélisation par simulation présente de nombreux avantages :

la capacité d'appliquer des modèles plus adéquats à des objets réellement fonctionnels et d'expérimenter le modèle de manière presque illimitée sous diverses hypothèses ;

introduction relativement facile de facteurs d'incertitude et de nombreuses variables aléatoires dans le modèle ;

un reflet relativement simple de la dynamique des processus, des paramètres temporels, des délais, des retards.

Le processus de prévision basé sur la simulation comprend plusieurs étapes principales :

1. Énoncé de la problématique de recherche, étude du système prédit, collecte d'informations empiriques, identification des principaux problèmes de modélisation. 2.

Formation d'un modèle de simulation, choix de la structure et des principes de description du modèle et de ses sous-modèles, simplifications acceptables, paramètres mesurés et critères de qualité des modèles. 3.

Évaluer l'adéquation du modèle de simulation, vérifier la fiabilité et l'adéquation de l'algorithme de modélisation en fonction du degré de cohérence et d'admissibilité des résultats des expériences de contrôle avec les données d'entrée. 4.

Planification d'expériences multivariées, sélection des caractéristiques fonctionnelles du système prédit pour la recherche, détermination des méthodes de traitement des résultats expérimentaux. 5.

Travailler avec le modèle, effectuer des calculs et des expériences de simulation. 6.

Analyse des résultats, conclusion sur la base des données de modélisation, élaboration finale de la prévision.

Dans une expérience de simulation, la tâche principale de chaque participant est de construire, à partir d'options possibles, une certaine stratégie qui garantit l'obtention des meilleurs résultats.

Questions pour la maîtrise de soi

Quelles méthodes sont logiques ? Donnez-leur une brève description. 2.

À quelles fins la méthode des analogies historiques est-elle utilisée ? 3.

Dans quels cas le scénario de développement du SES est-il élaboré ? 4.

Nommez les cas d'utilisation de la méthode d'extrapolation de tendance. 5.

Qu'est-ce qu'un formulaire de communication ? Donne des exemples Formes variées Connexions. 6.

Construisez un schéma fonctionnel du modèle de simulation. 7.

Quand utilise-t-on la modélisation économétrique ? Donnez quelques exemples de modèles économétriques.

Le mathématicien Konstantin Vorontsov sur l'utilisation des problèmes d'apprentissage automatique en entreprise, la composition de modèles adaptatifs et l'amélioration de la qualité des données

Il y a dix ans, une grande chaîne de vente au détail a annoncé un appel d'offres pour résoudre le problème de la prévision des volumes de ventes dans son réseau. Presque tous les grands détaillants résolvent les problèmes de prévision parce qu’ils en ont besoin pour planifier leurs achats. Les conditions de concurrence ont été fixées comme suit : nous avons reçu des données sur deux ans - il s'agit des ventes quotidiennes d'environ 12 000 produits dans l'un des magasins de la chaîne, l'appel d'offres a été clôturé, outre nous, six autres entreprises y ont été invitées. Parmi eux se trouvaient de très grands fournisseurs de solutions analytiques pour le commerce de détail. Bien entendu, nous avons estimé que nos chances de remporter cet appel d’offres étaient faibles.

La condition était de créer une prévision des ventes pour les deux semaines qui suivaient immédiatement les deux années pour lesquelles les données étaient disponibles. Les organisateurs du concours ont proposé leur propre fonctionnalité de qualité, utilisée pour mesurer la qualité des prévisions. Cette fonctionnalité était un peu non standard. Les organisateurs ont décidé de prendre en compte que cette fonctionnalité inclut un grand nombre de marchandises et ce n'est pas bon quand on additionne des pièces avec des kilogrammes, donc c'était la somme de toutes les marchandises, et ils ont dû mettre la valeur prédite elle-même comme dénominateur. Ce n’était pas une décision très claire ; ils ne font généralement pas cela. Nous avons prévenu les organisateurs du concours que la fonctionnalité était un peu étrange, d'autres participants au concours les ont également prévenus, mais néanmoins, cette décision avait aussi sa propre logique, et le concours s'est déroulé dans de telles conditions.

Habituellement, la prévision de la demande des consommateurs - plus précisément des volumes de ventes - est réalisée à l'aide de méthodes de prévision connues depuis très longtemps dans les statistiques. En général, ils sont basés sur la méthode des moindres carrés, où la fonctionnalité inclut des sommes par produit, des sommes par points dans le temps et le carré de la différence entre la prévision de l'algorithme et le volume réel des ventes de ce produit ce jour-là. C'est ainsi que les fonctionnalités sont généralement organisées, et dans toutes les solutions standard, minimiser ces fonctionnalités vous permet de personnaliser l'algorithme de prévision.

Il existe de nombreuses méthodes simples et rapides, également connues depuis longtemps, depuis les années 1960, que nous avons commencé à utiliser pour résoudre le problème de la prévision. Il s’agit des méthodes de moyenne mobile exponentielle, des modèles de Brown, Theil-Wage, Holt-Winters, etc. Certains d'entre eux prennent en compte la saisonnalité. La saisonnalité ne doit pas être comprise comme l'hiver - l'été, mais plutôt comme la semaine - le week-end, c'est-à-dire la saisonnalité hebdomadaire. De nombreux articles se vendent différemment en semaine et le week-end. Nous avons tout de suite compris que nos principaux concurrents dans cet appel d'offres utiliseraient des approches standards : ils utiliseraient la méthode des moindres carrés, car ils ont des solutions toutes faites, et des méthodes de calcul plutôt laborieuses comme les réseaux de neurones ou l'autorégression. Et nous avons décidé d'aller dans l'autre sens et d'utiliser méthodes simplesétant entendu que chaque produit possède plusieurs de ses propres caractéristiques. Il existe de nombreux modèles, mais on ne sait pas quel modèle sera le meilleur pour chaque produit. De plus, nous avons même supposé qu’un produit change de modèle de temps en temps et peut être mieux prédit par un modèle au début, puis à un moment donné, un autre modèle commencera à mieux fonctionner. Par conséquent, nous avons réalisé une composition adaptative de modèles adaptatifs simples. À chaque instant, nous sélectionnons le modèle qui a récemment mieux fonctionné, compte tenu des prévisions les plus précises, nous y passons, et c'est ce modèle qui donne les prévisions. La première décision qui a été prise a été d’utiliser une composition de modèles simples au lieu de construire quelque chose de plus complexe.

La deuxième solution était que nous nous rendions compte que la fonctionnelle n'était pas standard et, comme enseigné en première année de physique et technologie, nous avons pris cette fonctionnelle, l'avons différenciée selon les paramètres du modèle, assimilé les dérivées à zéro et obtenu un certain système d'équations dont nous avons dérivé une nouvelle méthode. En principe, c'est le travail d'un mathématicien pour une soirée, mais nous devinions que nos concurrents ne le feraient pas, car ils ont des solutions toutes faites et y croient fermement. Il s’est avéré que nous avions vraiment pris la bonne décision.

Une autre caractéristique de ce problème est qu’il y a eu de longs intervalles de manque de demande non aléatoire. Imaginez : un produit est vendu régulièrement chaque jour, et tout à coup vous constatez que pendant deux semaines, ce produit n'est plus disponible du tout. Ceci, bien sûr, n'est pas dû au fait qu'il n'y a pas de demande, mais au fait que les marchandises n'ont tout simplement pas été livrées, qu'elles n'étaient pas sur les étagères, qu'elles n'étaient pas dans l'entrepôt. Nous avons simplement supprimé ces intervalles sans demande des données d'entraînement afin qu'ils n'affectent pas le résultat.

Le jour est venu où nous avons montré notre solution aux organisateurs du concours. Nous savions qu'un de nos principaux concurrents parlait avant nous, et lorsque les organisateurs ont demandé : « Combien d'heures votre modèle calcule-t-il ? », nous avons été surpris et avons répondu : « N'avez-vous pas compris que nous étions juste sur mon ordinateur portable en une minute ?" et huit secondes ont non seulement calculé toutes les prédictions, mais ont également entraîné notre modèle sur un intervalle de deux ans ?" Ce fut bien sûr un choc. En conséquence, notre modèle s’est avéré non seulement le plus précis, mais aussi le plus rapide. Nous avons montré que toutes les prévisions sur l’ensemble du réseau peuvent être lues en littéralement deux heures, la nuit, sur un ancien serveur, et qu’il n’est même pas nécessaire d’acheter un nouvel équipement.

Ce n'est pas seulement une success story, mais aussi une histoire très instructive : premièrement, il ne faut pas avoir peur d'utiliser des méthodes non standard, et si le problème est posé de manière non standard, alors seul un mathématicien peut trouver rapidement une solution. solution - c'est bien quand ça marche vite, parfois ça ne marche pas, bien sûr ; deuxièmement, cet incident nous a donné la force d'entrer sur le marché avec nos propres solutions - il n'y a pas lieu d'avoir peur qu'il existe des concurrents puissants sur le marché. Il y a eu un autre moment propice à l'apprentissage. Lorsque je sélectionnais moi-même des modèles pour cette tâche, nous avons d'abord introduit jusqu'à trente modèles différents, et à partir d'eux, de manière aussi adaptative que je l'ai dit, chaque jour le modèle optimal était sélectionné pour chaque produit.

En principe, cela se heurte à un phénomène tel que le surapprentissage, c'est-à-dire que nous pourrions ajuster correctement et précisément les données d'entraînement et prédire mal les nouvelles données de test. Je savais que ce phénomène était dû au fait que le modèle peut être trop complexe, alors l'effet de surajustement se produit. Il m'a semblé que choisir parmi trente modèles n'était pas si difficile, il ne devrait pas y avoir de reconversion ici. Ma surprise a été très forte lorsque j'ai mené une expérience, comparé l'entraînement au contrôle et réalisé que le surentraînement est tout simplement énorme et que nous perdons des dizaines de pour cent de précision à cause de cet effet. J'allais justement introduire de plus en plus de nouveaux modèles, mais cette expérience a montré que la solution devait au contraire être simplifiée et trente modèles, c'est beaucoup. Le choc suivant pour moi a été lorsqu'il s'est avéré que le nombre optimal de modèles était de six, c'est-à-dire qu'il était impossible de construire une solution plus complexe qu'à partir de six modèles.

Ensuite, purement théoriquement, ce problème m'a intrigué, et une solution n'a été trouvée que lorsque je travaillais sur ma thèse de doctorat et que j'avais déjà étudié sérieusement le phénomène du surajustement dans le cadre de la théorie combinatoire du surajustement. Il s'est avéré que si vous choisissez parmi des modèles et que vous avez un bon modèle et que tous les autres sont mauvais, alors, en règle générale, vous choisirez ce bon modèle. Vous ne serez pas reconverti, vous aurez cette seule bonne solution. Si vous disposez de nombreux modèles, mais qu'ils sont similaires les uns aux autres, vous ne ferez pas non plus de surajustement, car la complexité effective de la population de modèles similaires est faible et le surajustement est également faible. Et s'il s'avère que vos modèles sont très différents et à peu près tous également mauvais, alors le surajustement peut être très important, et l'effet du surajustement augmente monstrueusement à mesure que le nombre de modèles augmente. C'est exactement la situation à laquelle nous avons été confrontés lors de cet appel d'offres. Mais il n’a été possible de l’expliquer théoriquement que quelques années plus tard.

Il y a eu une autre mise en garde. Puis, lors de cet appel d'offres, présentant notre solution aux organisateurs du concours, nous avons expliqué : « Nous pensons que votre fonctionnalité n'est pas conçue correctement, vous ne pouvez pas faire cela. Le fait que la valeur prédite soit au dénominateur n’est bien sûr pas bon. Le fait que votre fonctionnelle exprime le carré de la différence d'erreur… » Qu'est-ce que le carré des roubles, par exemple ? Cela n’a pas de sens économique. Nous avons proposé d'optimiser les fonctionnalités qui expriment les pertes de l'entreprise dues à des prévisions inexactes, et montré comment ces fonctionnalités devraient être structurées, et montré que nous sommes prêts à optimiser de telles fonctionnalités non standard, augmentant ainsi les bénéfices de l'entreprise - exactement ce qui était nécessaire pour les affaires. Lorsque nous avons réellement commencé à travailler sur le projet, il s’est avéré que l’entreprise disposait de données très sales, nécessaires à la création de telles fonctionnalités. Pour certains produits, ces données n'étaient pas disponibles du tout ; pour d'autres, ces données étaient inexactes, car les gestionnaires n'étaient toujours pas intéressés par la vérification et le contrôle de ces données. Ce n'est pas de la comptabilité, c'est une sorte d'information auxiliaire. Peut-être que quelqu'un en aura besoin un jour, peut-être pas.

En conséquence, il s'est avéré que les données étaient sales et il était nécessaire d'améliorer les processus commerciaux et de travailler pour améliorer la qualité des données. C’est quelque chose que les entreprises n’ont pas compris à ce moment-là. Lorsque nous avons proposé notre solution et réalisé que la lutte pour la qualité et la pureté des données est une partie importante de l'entreprise, nous avons également aidé nos partenaires à prendre conscience de cela et à améliorer certaines choses au sein de leurs processus commerciaux. Une histoire tellement instructive sur le lien entre les affaires et la science, que la science peut fournir aux entreprises des solutions non standard. Parfois, cela n'est pas du tout difficile, mais au contraire, dans le processus de recherche de ces solutions basées sur des cas réels, nous pouvons obtenir retour pour la science, nous pouvons rencontrer des questions théoriques non résolues et faire avancer la théorie.

Docteur en sciences physiques et mathématiques, professeur, Faculté d'informatique, École supérieure d'économie de l'Université nationale de recherche