checkAd

    Portfoliotheorie (portfolio theory) (Seite 2)

    eröffnet am 10.04.23 20:50:00 von
    neuester Beitrag 09.02.24 00:10:12 von
    Beiträge: 95
    ID: 1.368.155
    Aufrufe heute: 3
    Gesamt: 2.530
    Aktive User: 0


    Beitrag zu dieser Diskussion schreiben

     Durchsuchen
    • 2
    • 10

    Begriffe und/oder Benutzer

     

    Top-Postings

     Ja Nein
      Avatar
      schrieb am 03.02.24 13:21:32
      Beitrag Nr. 85 ()
      Antwort auf Beitrag Nr.: 75.213.344 von faultcode am 03.02.24 13:04:57
      Black-Litterman-Modell (BL) (9): Probleme
      Irgendwie ist klar, daß auch das BL-Modell nicht die Lösung auf alle Fragen ist, zumindest nicht in seiner klassischen Form:

      ... Two well-known problems of the Black-Litterman (BL) model [5] and [6] are:
      (1) the calibration of the parameter tau (FC: siehe eben oben)
      (2) and the views covariance matrix.
      Erindi Allaj, 2017: "The Black-Litterman Model, A Consistent Estimation of the Parameter Tau": https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2231944

      Weitere sind:
      (3) die Investor Views beschränken sich auf die erwarteten Renditen; Annahmen des Investors zu erwarteten Korrelationen und erwarteten Kovarianzen bleiben außen vor
      (1b) die Abbildung des Markt-Portfolios, welches u.U. nicht gut zu definieren ist. Eine unzulängliche Wahl hier führt möglicherweise auch zu suboptimalen BL-Gewichten im Portfolio --> das erscheint mir mit (1) verwandt zu sein
      (2b) das BL-Modell neigt zu Empfindlichkeiten auf die Eingaben zu den Investor Views --> das erscheint mir mit (2) verwandt zu sein
      aus: https://hudsonthames.org/bayesian-portfolio-optimisation-the…


      Auch gibt es wohl subtile Probleme, wie z.B. hier beschrieben:

      The results showed that investor views had a negative effect on total return (lower return) and a positive effect on volatility (lower risk), however, an increased Sharpe ratio.
      The constraints in the mean-variance optimization used in the benchmark portfolios resulted in a lower total return.
      In conclusion, the Black-Litterman model showed robustness and did not generate unintuitive or unreasonable portfolios, and it has great potential with increasing accuracy in the investor views.

      2021, "The Black-Litterman Asset Allocation Model - An Empirical Analysis of Its Practical Use", Ernstsson, Liljesvan: https://kth.diva-portal.org/smash/get/diva2:1699815/FULLTEXT…
      5 Antworten
      Avatar
      schrieb am 03.02.24 13:04:57
      Beitrag Nr. 84 ()
      Antwort auf Beitrag Nr.: 75.213.242 von faultcode am 03.02.24 12:41:36
      Black-Litterman-Modell (BL) (8): Parameter lambda und die Black-Litterman-Master-Formel
      • N different assets, hier die Magnificent 7-Komponenten von 2019 bis 2023
      • Σ = NxN covariance matrix of the assets' excess returns
      • PI, Π = Nx1 vector of equilibrium risk premium over the risk free rate

      • P = K x N design matrix or view matrix of asset portfolio weights for K active investment strategies
      • Omega, Ω = K x K diagonal matrix containing measures of confidence in each strategy
      • Q = K x 1 vector of views, which are the expected returns for the active strategies
      => das sind die "Noisy observations" aus: 2016, "On the Bayesian interpretation of Black–Litterman", Petter Kolm, Gordon Ritter: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2853158
      In the language of statistics, the core idea of Black and Litterman (1991) is to treat the portfolio manager's views as noisy observations which are useful for performing statistical inference concerning the parameters in some underlying model for r.
      <r is the random vector of asset returns over some subsequent interval>


      lambda, λ = (E(r) - rf) / sigma^2

      mit:
      • E(r) = the expected market (or benchmark) total return: E(r) ist im Sinne einer nominalen, erwarteten Gesamtmarkt-Rendite, z.B. eines Benchmark-Indizes wie dem S&P 500, zu verstehen
      • rf = the risk-free rate (risikoloser Zinssatz): auch der ist eine Annahme für die Zukunft und kann steigen oder fallen
      • Varianz σ^2, sigma^2 = the variance of the market (or benchmark) excess returns: diese Varianz ist also nicht die geschätzte Varianz des Marktes oder Benchmarks, sondern die geschätzte Varianz der Excess returns E(r) – rf :eek:

      => lambda ist also definitiv eine Sache von lauter Annahmen für die Zukunft:

      The risk-aversion coefficient lambda (λ) characterizes the expected risk-return tradeoff. It is the rate at which an investor will forego expected return for less variance.
      aus: 2004, A STEP-BY-STEP GUIDE TO THE BLACK-LITTERMAN MODEL, Thomas M. Idzorek:


      Ein paar Rechenschritte später fügt man alles zusammen zur Black-Litterman-Master-Formel, dem Kernstück des ganzen Modells:

      Expected Returns E(R) (erwartete Portfolio-Rendite) =
      = [(tau * Σ)^(-1) + P|transponiert * Ω^(-1) * P]^(-1) * [(tau * Σ)^(-1) * Π + P|transponiert * Ω^(-1) * Q]
      = E(R) Teil 1 * E(R) Teil 2

      => die BL-Formel besteht also aus zwei Faktoren, wenn man so will


      Oben in Beitrag Nr. 77ff habe ich lambda mit 0.33 angegeben. Dazu habe ich einfach ein paar einfache Überlegungen angestellt:

      • die implied annual variance des S&P 500-Index Ende 2023 (29.12.2023) betrug: 15.26%, siehe den CBOE S&P 500 3-Month Volatility Index aus: https://fred.stlouisfed.org/series/VXVCLS

      Diese 15.26% sind aber die annualisierte Vola des Marktes (hier eben der S&P 500) und nicht die geforderte Vola der Überrenditen (excess returns).
      <streng genommen hätte ich eigentlich nur die Vola der Überrenditen der Magnificent 7 nehmen dürfen, da ich ja nicht vorhabe Gewichte für alle möglichen S&P 500-Komponenten zu setzen>

      E(r) aus oben habe ich mal bei 8% (nominal) angesetzt in Anlehnung an: https://www.mckinsey.com/capabilities/strategy-and-corporate…

      ..und dann mal für 2024ff mit sogar nur mal 6% angenommen als Option:

      • lambda1 = (0.08 - 0.05) / (0.1526^2) = 1.29
      • lambda2 = (0.08 - 0.05) / (0.3000^2) = 0.33 <-- meine Wahl
      • lambda3 = (0.06 - 0.05) / (0.3000^2) = 0.11
      • lambda4 = (0.06 - 0.05) / (0.5000^2) = 0.04

      Den risikoloser Zinssatz (für U.S. dollar) habe ich immer mit 5% angenommen. Nachdem ich keine Ahnung habe, was die Vola für die Überrenditen sein könnte, habe ich diese 15.26% einfach mal verdoppelt auf grob 30% für ein pessimistisches Szenario und mich am Ende für Variante 2 entscheiden.
      6 Antworten
      Avatar
      schrieb am 03.02.24 12:41:36
      Beitrag Nr. 83 ()
      Black-Litterman-Modell (BL) (7c): Parameter tau (3/3) -- Richard Michaud
      Zitat von faultcode: ...(+) das gilt auch für Michaud's (+) Resampling an der Efficient frontier (Beitrag Nr. 61 https://www.wallstreet-online.de/diskussion/1368155-11-20/po…), der im Übrigen ein harter Kritiker der Idee von Black-Litterman war. Dazu später mehr. ...

      Endspurt BL.

      Allerdings kam Michaud mit öffentlicher Kritik am Black-Litterman-Modell, soweit ich das erkennen kann, erst ziemlich spät an, rund 10 Jahre nach dessen Einführung, obwohl Michaud schon seit 1989 Veröffentlichungen zum Thema Portfoliotheorie machte, damals noch bei Merrill Lynch Capital Markets, z.B.: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2387669

      2012, Michaud:
      “...Black-Litterman is a failed scientific theory with vacuous investment value that should be ignored by the investment community as any serious solution to the instability and ambiguity of Markowitz optimization in practice.”; wieder bei Randy O’Toole zu finden: https://www.northinfo.com/documents/741.pdf
      <vacuous = leer>

      Ich konnte zu diesem Zitat aber keine Original-Quelle finden.


      Danach erscheint sein Hauptpapier zu BL:
      Draft 2012, Update 2015:
      “Deconstructing Black-Litterman: How to Get the Portfolio You Already Knew You Wanted"
      Richard O. Michaud, David Esch, Robert Michaud
      https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2641893

      Seine Kritik entzündetete sich gerade am Parameter tau:

      Additionally, the τ adjustment itself is an ad hoc modification of the prior distribution to steer the outcome towards some desirable result, which violates the principles of a rigorous Bayesian analysis. The problem is that one does not change one’s internal beliefs to modify an outcome when confronted with those beliefs.

      The only alternative characterization of τ adjustment is as a modification of the scale of the covariance of the data, which is also changing the model during the model-fitting stage. The adjustment of τ to attain investability is an intervention which contaminates the rigor of the analysis and must be viewed as an ad hoc correction of a flawed procedure, and a major departure from rigorous statistical analysis.

      ...
      7 Antworten
      Avatar
      schrieb am 03.02.24 12:34:59
      Beitrag Nr. 82 ()
      Antwort auf Beitrag Nr.: 75.212.858 von matjung am 03.02.24 11:09:03die Frage lautet: was ist eine gute Annahme für tau, ohne daraus eine Wissenschaft zu machen?

      Antwort: tau = 1
      Avatar
      schrieb am 03.02.24 11:09:03
      Beitrag Nr. 81 ()
      Antwort auf Beitrag Nr.: 75.190.637 von faultcode am 31.01.24 00:10:44Für Dummies, was versuchst du noch mal zu optimieren oder zu erreichen?
      1 Antwort

      Trading Spotlight

      Anzeige
      East Africa Metals
      0,1390EUR +11,20 %
      East Africa Metals: Widerstand gebrochen und neues Jahreshoch! mehr zur Aktie »
      Avatar
      schrieb am 01.02.24 02:36:37
      Beitrag Nr. 80 ()
      Antwort auf Beitrag Nr.: 75.190.637 von faultcode am 31.01.24 00:10:44
      Zitat von faultcode: ...
      => damit ergibt sich einfach: tau = 1 / n mit n = Anzahl der Beobachtungen
      ...

      das sollte man mMn nicht machen. tau = 1.0 ist OK mMn, solange man keine genaueren Kenntnisse hat, so wie es der Autor Erindi Allaj 2017 beschrieb.


      Zitat von faultcode: ...
      In einer Beispiel-Anwendung kommt er dann auf einen Schätzwert von rund 1.07
      ...

      das machte mich stutzig.
      Daher überprüfte ich meine Rechnungen nochmal und dabei fiel mir auf, daß ich einfach Ergebnisse aus einem fehlerhaften Experimental-Code übernahm. Ich habe den Fehler aber mittlerweile gefunden und behoben.

      Das Experiment bestand darin, für die Kovarianz für 2019 bis 2023 (covariance matrix of excess returns, CMER) eine Gewichtung mit EWMA (exponentially weighted moving average) vorzunehmen. Ich habe das hier gefunden:

      2022: Optimising portfolio diversification and dimensionality
      https://link.springer.com/article/10.1007/s10898-022-01202-7.
      ...
      We are considering a realistic real world multi-asset allocation problem with semi-annual rebalancing of the portfolio. At each rebalancing date the covariance matrix was estimated from the previous 180 observations of weekly returns using an EWMA estimator with a half-life of one year.
      ...

      Ich stellte aber nun fest, daß das in meinem Fall (erstaunlicherweise) nur zu geringfügig anderen Gewichten bei META und TSLA führte (kein Rebalancing; half-life of one year => decay coefficient = 0.9972488; lambda = 0.33, tau = 1.00):

      META: 0.192 --> 0.194 (EWMA)
      TSLA: -0.050 --> -0.053 (EWMA)

      Daher habe ich diese Idee auch wieder verworfen.
      Avatar
      schrieb am 01.02.24 02:04:57
      Beitrag Nr. 79 ()
      Zitat von faultcode: ...Man kann aber tau sehr klein wählen, z.B. mit 0.0000001 =>

      Table: lambda: 0.33 , tau: 1e-07

      |asset | w_BL| w_PI| diff|
      |:-----|-----:|-----:|--------:|
      |AAPL | 0.249| 0.249| 1.9e-15|
      |NVDA | 0.102| 0.102| -4.4e-15|
      |GOOG | 0.146| 0.146| 8.9e-15|
      |META | 0.076| 0.076| 1.8e-05|
      |AMZN | 0.130| 0.130| 1.5e-14|
      |TSLA | 0.066| 0.066| -1.8e-05|
      |MSFT | 0.232| 0.232| -1.8e-14|

      ...

      diese Tabelle ist falsch. Die korrekte Version lautet so:

      Table: lambda: 0.33 , tau: 1e-07

      |asset | w_BL| w_PI| diff|
      |:-----|------:|-----:|--------:|
      |AAPL | 0.249| 0.249| -1.4e-15|
      |NVDA | 0.102| 0.102| 2.4e-16|
      |GOOG | 0.146| 0.146| 1.3e-15|
      |META | 0.178| 0.076| 1.0e-01|
      |AMZN | 0.130| 0.130| -1.1e-16|
      |TSLA | -0.037| 0.066| -1.0e-01|
      |MSFT | 0.232| 0.232| -2.8e-17|



      Zitat von faultcode: ...Nach Satchell and Scowcroft, 2000, (Link in Beitrag Nr. 68) gilt: "..τ is a (known) scaling factor often set to 1" =>

      Table: lambda: 0.33 , tau: 1

      |asset | w_BL| w_PI| diff|
      |:-----|-------:|-----:|--------:|
      |AAPL | 0.25| 0.249| -4.5e-12|
      |NVDA | 0.10| 0.102| -6.9e-13|
      |GOOG | 0.15| 0.146| 3.5e-12|
      |META | 164.41| 0.076| 1.6e+02|
      |AMZN | 0.13| 0.130| -9.4e-13|
      |TSLA | -164.27| 0.066| -1.6e+02|
      |MSFT | 0.23| 0.232| 2.8e-12|

      ...

      diese Tabelle ist noch mehr falsch. Die korrekte Version lautet so:

      Table: lambda: 0.33 , tau: 1

      |asset | w_BL| w_PI| diff|
      |:-----|------:|-----:|--------:|
      |AAPL | 0.249| 0.249| 2.5e-09|
      |NVDA | 0.102| 0.102| 1.0e-09|
      |GOOG | 0.146| 0.146| 1.5e-09|
      |META | 0.192| 0.076| 1.2e-01|
      |AMZN | 0.130| 0.130| 1.3e-09|
      |TSLA | -0.050| 0.066| -1.2e-01|
      |MSFT | 0.232| 0.232| 2.3e-09|



      => tau = 1.0 ist ein tauglicher Parameter
      Avatar
      schrieb am 31.01.24 00:10:44
      Beitrag Nr. 78 ()
      Antwort auf Beitrag Nr.: 75.190.577 von faultcode am 30.01.24 23:34:47
      Black-Litterman-Modell (BL) (7b): Parameter tau (2)
      Die Varianz, bzw. Kovarianz, hier ist die Varianz eines Mittelwertes (der hier 0.00 als Vektor ist) und die lautet:

      (Varianz der Stichprobe) / (Anzahl der Beobachtungen n)

      siehe: https://de.wikipedia.org/wiki/Standardfehler (+)

      => damit ergibt sich einfach: tau = 1 / n mit n = Anzahl der Beobachtungen

      So deutet das zumindest Thomas M. Idzorek in "A STEP-BY-STEP GUIDE TO THE BLACK-LITTERMAN MODEL" (Link oben):

      "Finally, Blamont and Firoozye (2003) interpret τΣ as the standard error of estimate of the Implied Equilibrium Return Vector (Π); thus, the scalar (τ) is approximately 1 divided by the number of observations."

      => der erste Teil stimmt mMn nicht; es ist nicht der Standardfehler (standard error) = geschätzte Standardabweichung der Stichprobe (+), sondern die geschätzte Varianz der Stichprobe, wenn man von N(μ, σ^2) spricht


      Diese Näherung 1 / n habe ich jedenfalls auch im weiteren Verlauf benutzt. Ich habe 1258 tägliche Rendite-Beobachtungen von 2019 bis 2023 und damit ergibt sich ein geschätztes tau von 1 / 1258 = 0.0007949

      Für die Kovarianz für 2019 bis 2023 (covariance matrix of excess returns, CMER) ergeben sich dann diese (unbeschränkten) BL-Gewichte:

      Table: lambda: 0.33 , tau: 0.0007949
      |asset | w_BL| w_PI| diff|
      |:-----|------:|-----:|--------:|
      |AAPL | 0.249| 0.249| -4.7e-16|
      |NVDA | 0.102| 0.102| -1.2e-16|
      |GOOG | 0.146| 0.146| 2.2e-16|
      |META | 0.178| 0.076| 1.0e-01| <<<<<<<<<<<<<<<<<
      |AMZN | 0.130| 0.130| 1.9e-16|
      |TSLA | -0.037| 0.066| -1.0e-01| <<<<<<<<<<<<<<<<<
      |MSFT | 0.232| 0.232| -2.5e-16|


      => demnach müsste man also ab 2.1.2024 leicht short in TSLA sein (-3.7%), wenn sowas z.B. nicht mit einer anschließenden Mean-Variance-Optimierung (MVO) weggebügelt werden soll


      nebenbei: wie der Leser vielleicht schon bemerkt hat, bevorzuge ich META gegenüben TSLA in meinem "Investor View", eben ab 2.1.2024. Das soll nur ein Beispiel sein. So kann ich eben sehen, welch wichtigen Einfluss dieser geheimnisvolle Parameter hat. Dazu kann ich nochmals diese Präsentation empfehlen mit mehr Hintergrund: https://www.northinfo.com/documents/741.pdf


      Wie oben verlinkt, hat ja der Autor Erindi Allaj 2017 ein ganzes Papier diesem skalaren Parameter gewidmet und wie man diesen systematisch und konsistent schätzen kann:


      <n ist dort die Anzahl der Komponenten, nicht die Anzahl der Beobachtungen!>

      => wie man sieht, ist das durchaus mit Aufwand verbunden

      In einer Beispiel-Anwendung kommt er dann auf einen Schätzwert von rund 1.07, ein viel zu hoher Wert für die Magnificent 7 von 2019 bis 2023 wie das Beispiel oben mit 1.00 zeigt und welcher eben zu vollkommen übertriebenen Gewichten bei META und TSLA führt.

      Der Kontext ist also entscheidend hier und so überlässt er auch den Portfolio-Managern die Aufgabe sein Modell für tau anzuwenden:

      The results suggest that the proposed model can be a powerful tool in the hands of active managers (AMs). The procedure developed here should provide, through the estimate of τ, valuable information regarding the validity of the capital asset pricing model (CAPM). It is my belief that the proposed model can be easy implemented by AMs.
      3 Antworten
      Avatar
      schrieb am 30.01.24 23:34:47
      Beitrag Nr. 77 ()
      Antwort auf Beitrag Nr.: 75.190.460 von faultcode am 30.01.24 22:48:45
      Black-Litterman-Modell (BL) (7a): Parameter tau (1)
      "This parameter is the most mysterious one in the BL model, as the literature does not provide specific guidance on its calibration."
      Erindi Allaj, 2017: "The Black-Litterman Model, A Consistent Estimation of the Parameter Tau": https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2231944

      tau, τ = "a scalar number indicating the uncertainty of the CAPM distribution" (capital asset pricing model)
      <wieder aus der Präsentation von oben>

      Oder auch so formuliert:
      "τ is a parameter that reflects the level of confidence in the equilibrium expected returns;"
      Randy O’Toole (ja, der wieder), 2017: https://www.northinfo.com/documents/741.pdf

      Es gilt dabei:
      "• In the limiting case of τ = 0 the weight on all of the active views is zero, and the investor will passively hold the “market” as represented by the benchmark portfolio
      • Larger values indicate belief in exploitable market inefficiencies, with higher values corresponding to greater confidence in the active views and more willingness to take on active risk"
      Randy O’Toole, 2017, Link wie oben


      Allerdings passiert bei tau = 0 dieses in meinem R code: "Fehler in solve.default(tau2 * S_cov_var_ewma) : Lapackroutine dgesv: System ist genau singulär: U[1,1] = 0"

      Man kann aber tau sehr klein wählen, z.B. mit 0.0000001 =>

      Table: lambda: 0.33 , tau: 1e-07

      |asset | w_BL| w_PI| diff|
      |:-----|-----:|-----:|--------:|
      |AAPL | 0.249| 0.249| 1.9e-15|
      |NVDA | 0.102| 0.102| -4.4e-15|
      |GOOG | 0.146| 0.146| 8.9e-15|
      |META | 0.076| 0.076| 1.8e-05|
      |AMZN | 0.130| 0.130| 1.5e-14|
      |TSLA | 0.066| 0.066| -1.8e-05|
      |MSFT | 0.232| 0.232| -1.8e-14|


      • w_BL sind die neuen Gewichte nach Black-Litterman (posterior)
      • w_PI sind die Gewichte entsprechend der Marktkapitalisierung der Komponenten, wobei angenommen wird, daß sich der Markt zu diesem Zeitpunkt im Gleichgewicht befindet (prior)

      => w_PI ist also gerundet das "market portfolio" = die marktgewichteten Magnificent 7 mit letzter Stand vom 29.12.2023:

      tckr mkt_cap mkt_cap_norm
      AAPL 2994 0.24873307
      NVDA 1223 0.10160339
      GOOG 1755 0.14580045
      META 910 0.07560023
      AMZN 1570 0.13043117
      TSLA 790 0.06563097
      MSFT 2795 0.23220071


      => wie man sieht, ist es mit Aufwand verbunden, sich das notwendige Benchmark-Portfolio zusammenzusuchen bevor man überhaupt loslegen kann

      Ich weiß, daß man die Market Caps bei Google Finance auslesen kann, aber nicht, ob auch zu bestimmten Stichtagen. Jedenfalls musste ich nur 7 Marktkapitalisierungen vom 29.12.2023 händisch heraussuchen und nicht z.B. 500 für alle S&P 500-Komponenten.
      Auch solche praktischen Erwägungen sind es mMn, die für die bevorzugte Anwendung des Black-Litterman-Modell mit breiten ETF's sprechen, mit denen man wiederum ganze Märkte abbilden kann.


      Nach Satchell and Scowcroft, 2000, (Link in Beitrag Nr. 68) gilt: "..τ is a (known) scaling factor often set to 1" =>

      Table: lambda: 0.33 , tau: 1

      |asset | w_BL| w_PI| diff|
      |:-----|-------:|-----:|--------:|
      |AAPL | 0.25| 0.249| -4.5e-12|
      |NVDA | 0.10| 0.102| -6.9e-13|
      |GOOG | 0.15| 0.146| 3.5e-12|
      |META | 164.41| 0.076| 1.6e+02|
      |AMZN | 0.13| 0.130| -9.4e-13|
      |TSLA | -164.27| 0.066| -1.6e+02|
      |MSFT | 0.23| 0.232| 2.8e-12|



      Blamont und Firoozy haben 2003 zu tau gesagt ("Black Litterman Asset Allocation", Deutsche Bank: https://www.researchgate.net/publication/319873988_Black_Lit…): (~)

      "τ is a (small) scaling factor such that 0 < τ < 1 reflecting the fact that the variance in the expected returns is smaller than the variance of the actual returns."

      Laut dem Diagramm oben in Beitrag Nr. 68 z.B. gilt: Prior Equilibrium Distribution: N ~ (PI, tau * Σ)
      mit:
      • PI = Implied Equilibrium Return Vector (PI = Π, aber in der Literatur habe ich hier auch oft ein kleines π gesehen)
      • Σ = covariance matrix of excess returns (N x N)

      ...und damit kann man die Market implied expected returns (uncertain since unobserved) formulieren als: PI + nu, mit nu (ν) = ~ MVN(0, tau * Σ = τΣ):


      aus (~)

      • MVN = Multivariate normal distribution
      • GLS = Generalised Least Squares

      => τΣ ist also die Schätzung der Kovarianz von PI
      4 Antworten
      Avatar
      schrieb am 30.01.24 22:48:45
      Beitrag Nr. 76 ()
      Antwort auf Beitrag Nr.: 75.190.448 von faultcode am 30.01.24 22:44:16
      Black-Litterman-Modell (BL) (6): An Equilibrium Approach
      Dieses "Equilibrium" (Gleichgewicht) bezieht sich auf das CAPM-Gleichgewicht (capital asset pricing model), von dem bei BL angenommen wird, daß der Markt sich einem solchen früher oder später nähert, sollte er sich mal nicht in einem Gleichgewicht befinden.
      wie oben aus: "The Black-Litterman Model: Extensions and Asset Allocation", 2011

      "The market is in equilibrium when all investors hold the market portfolio, w(eq)."
      wie oben aus: "Bayesian Alternatives to the Black-Litterman Model", Mihnea S. Andrei, John S.J. Hsu, 2018
      5 Antworten
      • 2
      • 10
       DurchsuchenBeitrag schreiben


      Portfoliotheorie (portfolio theory)