<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
  <channel>
    <title>eSpace Collection: Theses repository</title>
    <link>https://hdl.handle.net/11264/2</link>
    <description>Theses repository</description>
    <pubDate>Thu, 09 Apr 2026 14:15:49 GMT</pubDate>
    <dc:date>2026-04-09T14:15:49Z</dc:date>
    <item>
      <title>From Arms Control to North Atlantic Treaty Organization Enlargement: The Evolution of US Foreign Policy on the Cold War Alliance</title>
      <link>https://hdl.handle.net/11264/2603</link>
      <description>Title: From Arms Control to North Atlantic Treaty Organization Enlargement: The Evolution of US Foreign Policy on the Cold War Alliance
Authors: Smith, Philippine
Abstract: The Russia-Ukraine war has highlighted tensions between those who argue the war was caused by NATO&#xD;
enlargement and those who argue the war illustrates why NATO had to enlarge. This thesis examines&#xD;
NATO enlargement in the transition from the Cold War to the post-Cold War European security&#xD;
framework and argues that NATO’s first round post-Cold War enlargement was the result of pathdependent&#xD;
decisions. The US and the USSR were engaged in arms control negotiations until the fall of the&#xD;
Berlin Wall, but priorities changed once the US realised it had to support German unification to avoid&#xD;
Germany giving up NATO membership for Soviet support for unification.&#xD;
This thesis uses process tracing within a path dependent framework. As post-Cold War NATO&#xD;
enlargement is a single-N case or a single decision-making process, this framework does not engage in&#xD;
comparative historical analysis and focuses instead on which incremental events led to a sequence of&#xD;
critical junctures that locked in the path to post-Cold War NATO enlargement, whether the outcome was&#xD;
considered optimal or suboptimal. Sources include declassified material from presidential libraries and&#xD;
the National Security Archives, newspaper articles, government reports, and academic literature.&#xD;
This thesis concludes that post-Cold War NATO enlargement was not premeditated but did align with the&#xD;
European foreign policy of the US. The Clinton administration pushed for completion by NATO’s 50th&#xD;
anniversary in 1999 and concerns were left out of the decision-making process. It was the result of a&#xD;
sequence of events and critical junctures that prioritised NATO enlargement.; La guerre en Ukraine souligne les tensions entre ceux pour qui la cause de la guerre se trouve dans&#xD;
l’élargissement de l’OTAN et ceux qui disent que la guerre est précisément la raison pour laquelle&#xD;
l’OTAN devait intégrer de nouveaux pays membres. Cette thèse examine l’élargissement de l’OTAN dans&#xD;
le cadre de la transition entre la guerre froide et l’après-guerre froide et des discussions sur la nouvelle&#xD;
architecture de sécurité européenne. L’argument central est que le premier élargissement de l’OTAN après&#xD;
la guerre froide s’explique par les décisions prises selon la théorie du sentier de dépendance. Les Etats-&#xD;
Unis et l’Union Soviétique étaient engagés dans des négociations sérieuses sur la limitation des&#xD;
armements jusqu’à ce que la chute du mur de Berlin change la trajectoire des évènements. Les Etats-Unis&#xD;
réalisèrent alors qu’ils devraient soutenir l’Allemagne pour éviter qu’elle n’abandonne l’OTAN en&#xD;
échange du soutien des Soviétiques envers l’unification.&#xD;
Cette thèse utilise le traçage de processus dans le cadre de la théorie du sentier de dépendance. Ce cadre&#xD;
théorique ne propose pas de comparaisons historiques étant donné que le cas de l’élargissement postguerre&#xD;
froide de l’OTAN est un cas unique. Le sentier de dépendance permet de se concentrer sur les&#xD;
événements incrémentiels qui ont mené à des moments critiques et qui ont contribué à la limitation des&#xD;
alternatives jusqu’à l’aboutissement de l’élargissement de l’OTAN, que ce choix ait été optimal ou pas.&#xD;
Cette thèse s’appuie sur des documents déclassifiés des archives présidentielles et des National Security&#xD;
Archives, ainsi que d’articles de journaux, de rapports gouvernementaux, et de la littérature académique.&#xD;
Cette thèse conclut que l’élargissement post-guerre froide de l’OTAN ne faisait pas partie d’un plan&#xD;
prémédité de la part des Etats-Unis, mais qu’il s’aligna avec sa politique étrangère européenne. La&#xD;
présidence de Bill Clinton poussa pour que l’élargissement soit terminé pour le 50e anniversaire de&#xD;
l’OTAN en 1999, sans inclure les préoccupations qui ne furent pas intégrées dans le processus&#xD;
décisionnel. Ce fut le résultat d’une série d’événements et de moments critiques qui a mis la priorité sur&#xD;
l’élargissement de l’OTAN.</description>
      <pubDate>Wed, 01 Apr 2026 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://hdl.handle.net/11264/2603</guid>
      <dc:date>2026-04-01T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Videography Techniques for Measuring Blast Properties of Conventional and Metallized Explosives</title>
      <link>https://hdl.handle.net/11264/2583</link>
      <description>Title: Videography Techniques for Measuring Blast Properties of Conventional and Metallized Explosives
Authors: Laing, Zoe
Abstract: Videography presents many advantages for blast measurement relative to pressure transducers. From the blast wave trajectory, time of arrival (TOA) can be determined directly, and differentiation and application of the Rankine-Hugoniot conditions enables the indirect measurement of peak overpressure.&#xD;
Spherical charges consisting of C4 or gelled nitromethane (NM) were detonated in three trial series in 2019 and 2022. Gelled NM was detonated as-is (the “baseline”) or with the addition of powdered inert glass, reactive H-2 or H-50 aluminium, or reactive Gran-17 magnesium; in mass fractions ranging from 10 % to 50 %. Pressure transducers measured TOA and overpressure between 0.5 m to 2.6 m, while high speed video cameras recorded the blast trajectories up to 7 m at frame rates ranging from 16,000 to 39,000 frames per second. In total, around 10,300 frames of usable blast data were recorded.&#xD;
To process the large amount of video data, a program was written to automatically extract the blast wave radius for each frame by successively processing the images to remove static background features, detect edges corresponding to the blast wave, and fit a distance assuming a circular projection. Subjective assessment and comparison with pressure transducers suggest qualitatively accurate fits, and evaluation of goodness of fit parameters indicate an R2 value greater than 0.95 for 71 % of all frames processed, and 75 % for all frames used in further blast analysis. Comparison with manual extraction suggests measurement errors of less than 2 % for charges with significant reactive particle jetting and backgrounds poorly suited to automated extraction, and less than 1 % for more typical recordings. Due to the variation in backgrounds and charge types between the three trial series, factors that lead to increased fit accuracy were able to be characterized.&#xD;
Blast trajectories for the C4, baseline, and 2022 gelled NM with added H-50 aluminium experiments were scaled according to Sachs’ scaling, aggregated, and fit to Dewey’s fit equation, with overpressure subsequently determined by differentiation of the fit equation and application of the Rankine-Hugoniot relations. A discussion on the effect of fit coefficients and their bounds on the asymptotic behaviour of the trajectory and overpressure is included.&#xD;
Video-derived TOA and overpressure data were compared with transducer measurements, finding excellent agreement between measured transducer and video TOAs; agreement in extrapolated TOAs were dependent on trajectory fit coefficient bounds. Videoderived overpressures were consistently higher than transducer overpressures for gelled NM charges, and possible sources of error and discrepancy for both the video and transducer data are discussed.&#xD;
Relative effectiveness was computed as a TNT equivalence for the aggregated datasets, as well as the effectiveness of the H-50 Al charges relative to the baseline (blast enhancement). TNT equivalence and blast enhancement are found to be variant both spatially and with respect to the blast parameter used for comparison. Median C4 TNT equivalence was found to be 1.24 when computed using overpressure and 1.30 when computed using TOA, similar to historically-reported averages; however the median TNT equivalences of the baseline, 1.49 based on overpressure and 1.32 based on TOA, were found to be substantially higher than from thermochemical code predictions. Video-measured blast enhancement due to the addition of reactive H-50 Al was found to be non-monotonic with increasing mass fraction, and decrease monotonically with increasing scaled distance.; La vidéographie présente de nombreux avantages pour la mesure du souffle par rapport aux transducteurs de pression. À partir de la trajectoire de l’onde de souffle, l’heure d’arrivée (TOA) peut être déterminée directement, et la différenciation et l’application des conditions de Rankine-Hugoniot permettent la mesure indirecte de la surpression maximale.&#xD;
Des charges sphériques constituées de C4 ou de nitrométhane (NM) gélifié ont explosé au cours de trois séries d’essais en 2019 et 2022. Le NM gélifié a explosé tel quel (la ligne de base) ou avec l’ajout de poudres de verre inerte, d’aluminium réactif H-2 ou H-50, ou de magnésium réactif Gran-17 ; dans des fractions massiques allant de 10 % à 50 %. Des transducteurs mesuraient la TOA et la surpression entre 0,5 et 2,6 mètres, tandis que des caméras haute vitesse enregistraient les trajectoires des explosions jusqu’à 7 m à des fréquences d’images allant de 16.000 à 39.000 images par seconde. Au total, environ 10.300 images de données d’explosion utilisables ont été enregistrées.&#xD;
Pour traiter la grande quantité de données vidéo, un programme a été écrit pour extraire automatiquement le rayon de l’onde de souffle pour chaque image en traitant successivement les images afin de supprimer les caractéristiques statiques de l’arrière-plan, de détecter les bords correspondant à l’onde de souffle et d’ajuster une distance en supposant une projection circulaire. L’évaluation subjective et la comparaison avec les transducteurs de pression suggèrent des ajustements qualitativement précis, et l’évaluation des paramètres d’ajustement indique une valeur R2 supérieure à 0,95 pour 71 % de toutes les images traitées et 75 % pour toutes les images utilisées dans une analyse de souffle ultérieure. La comparaison avec l’extraction manuelle suggère des erreurs de mesure inférieures à 2 % pour les charges avec des jets de particules réactifs importants et des fonds mal adaptés à l’extraction automatisée, et inférieures à 1 % pour des enregistrements plus typiques. En raison de la variation des antécédents et des types d’accusations entre les trois séries d’essais, les facteurs conduisant à une précision d’ajustement accrue ont pu être caractérisés.&#xD;
Les trajectoires d’explosion pour le NM gélifié C4, de référence et 2022 avec des expériences d’aluminium H-50 ajoutées ont été mises à l’échelle selon la mise à l’échelle de Sachs, agrégées et ajustées à l’équation d’ajustement de Dewey, la surpression étant ensuite déterminée par différenciation de l’équation d’ajustement et application des relations de Rankine-Hugoniot. Une discussion sur l’effet des coefficients d’ajustement et de leurs limites sur le comportement asymptotique de la trajectoire et de la surpression est incluseLes données TOA et de surpression dérivées de la vidéo ont été comparées aux mesures du transducteur, trouvant un excellent accord entre le transducteur mesuré et les TOA vidéo ; l’accord dans les TOA extrapolés dépendait des limites du coefficient d’ajustement de la trajectoire. Les surpressions dérivées de la vidéo étaient systématiquement supérieures aux surpressions du transducteur pour les charges NM gélifiées, et les sources possibles d’erreur et de divergence pour les données vidéo et celles du transducteur sont discutées.&#xD;
L’efficacité relative a été calculée comme une équivalence du TNT pour les ensembles de données agrégées, ainsi que l’efficacité des charges H-50 Al par rapport à la ligne de base (amélioration de l’explosion). L’équivalence du TNT et l’amélioration de l’explosion s’avèrent variables à la fois spatialement et par rapport au paramètre d’explosion utilisé à des fins de comparaison. Les équivalences du TNT médianes de C4 se sont avérées être de 1,24 lorsqu’elles sont calculées à l’aide de la surpression et de 1,30 lorsqu’elles sont calculées à l’aide du TOA, ce qui est similaire aux moyennes historiquement rapportées ; cependant, les équivalences du TNT médianes de la ligne de base, 1,49 en utilisant la surpression et 1,32 en utilisant la TOA, se sont révélées nettement supérieures à celles des prédictions du code thermochimique. L’amélioration de l’explosion mesurée par vidéo en raison de l’ajout de H-50 Al réactif s’est avérée non monotone avec l’augmentation de la fraction massique et diminue de manière monotone avec l’augmentation de la distance mise à l’échelle.</description>
      <pubDate>Mon, 29 Dec 2025 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://hdl.handle.net/11264/2583</guid>
      <dc:date>2025-12-29T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Self Evolving Structural Optimization - A Novel Approach To Topology Optimization</title>
      <link>https://hdl.handle.net/11264/2563</link>
      <description>Title: Self Evolving Structural Optimization - A Novel Approach To Topology Optimization
Authors: Kothyari, Ankit
Abstract: Topology optimization is utilized to determine the optimal distribution of material in a domain&#xD;
subject to specific load and boundary conditions. The main methods utilized in this field&#xD;
include Solid Isotropic Material with Penalization (SIMP), (Bidirectional) Evolutionary Structural&#xD;
Optimization ((B)ESO) and Level Set Method (LSM). Most mainstream approaches rely&#xD;
on a continuous design domain or material field, which introduces two artifacts: intermediate&#xD;
densities (where the normalized density is a fraction rather than 0 or 1, also known as&#xD;
grey-scaling) and alternating densities or patterns in the design domain (checkerboarding).&#xD;
Grey-scaling creates non-physical regions, an area that has the same material but with a&#xD;
partial density and increases the stiffness, while checkerboards artificially lowers compliance&#xD;
and makes the designs mesh-dependent; mitigating these effects typically requires use of additional&#xD;
filters, knowledge of the optimizer and post processing to create a manufacturable&#xD;
design.&#xD;
The SIMP method dominates the field as it is computationally efficient and easily applied&#xD;
to individual cases. To address these issues while maintaining efficiency, this dissertation&#xD;
proposes Self-Evolving Structural Optimization (SESO): a stress-driven, derivative-free, discrete&#xD;
algorithm that removes a prescribed amount of inefficient (under utilized) material each&#xD;
iteration based on the Von Mises stress. A stress-averaging filter promotes continuity and&#xD;
suppresses checkerboarding while preserving a binary (0–1) design; compliance is monitored&#xD;
as a guard and for reporting rather than driving the update scheme. SESO avoids sensitivity&#xD;
calculations, post-processing and converges in a fixed, preset number of iterations. On&#xD;
eight canonical cases, SESO reduced compliance relative to the best SIMP result per case by&#xD;
at least 3.7% and up to 31%, and required 73–87% fewer iterations than SIMP when density&#xD;
filtering was utilized. Across these cases the designs remained binary with no observed&#xD;
checkerboarding.</description>
      <pubDate>Mon, 01 Dec 2025 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://hdl.handle.net/11264/2563</guid>
      <dc:date>2025-12-01T00:00:00Z</dc:date>
    </item>
    <item>
      <title>DEEP LEARNING APPLICATION IN COMMUNICATIONS: CGAN-AUTOENCODER BASED ADAPTIVE MODULATION IN OFDM</title>
      <link>https://hdl.handle.net/11264/2543</link>
      <description>Title: DEEP LEARNING APPLICATION IN COMMUNICATIONS: CGAN-AUTOENCODER BASED ADAPTIVE MODULATION IN OFDM
Authors: Jung, Thomas Hyoseok
Abstract: Wireless and mobile communication networks are getting more sophisticated from one generation to the next to meet the growing data traffic along with&#xD;
high data rate and quality of service. Improving performance in either capacity, data rate, or quality of service while minimizing complexity can make&#xD;
the next generation of telecommunications feasible and consequently benefit both the consumer and service provider. Due to the fundamental limits of conventional techniques, recent studies in the field of communications have&#xD;
explored the application of deep learning to improve performance or reduce complexity through superior algorithmic learning capabilities of artificial neural networks from data, and it is an active research for 6G. As a response, this study investigates the application of deep learning in the physical layer of communication systems to see if there is any significant gain or benefit over the&#xD;
traditional methods. Our proposed approach applies deep learning in a way that preserves simplicity while maximizing performance through the joint use of conventional techniques and deep learning. Autoencoder and Conditional Generative Adversarial Network (CGAN) are used together to track channel variations and adapt the modulation scheme accordingly to maintain quality of service: spectral efficiency is maximized subject to a minimum required BER performance. The CGAN learns from data the conditional probability&#xD;
distribution of a given channel, and based on this approximation, the autoencoder is trained from end-to-end to obtain the optimal constellation for&#xD;
a specific instance of Eb/No. The autoencoder-based adaptive modulation is integrated with orthogonal frequency division multiplexing (OFDM) to exploit the key advantages of multicarrier modulation: high data rate, simple digital implementation and equalization. Application of autoencoder-based adaptive modulation results in 2.5-3 dB gain in bit error rate (BER) in an ill-conditioned channel and potential reduction in implementation complexity as the same neural network with a relatively fixed number of trainable parameters can be used for a wide range of modulation schemes. The proposed adaptive modulation also has a lower algorithmic complexity compared to the conventional counterpart. This research introduces a hybrid design methodology that restricts the learning task to sub-component level (adaptive modulation)&#xD;
without the assumption of the channel model: training complexity is minimized to enable online training. Lastly, the results of the proposed&#xD;
deep learning solution can be easily analyzed and interpreted while simultaneously benefiting from the key advantages of well-established algorithms in communications.; Les réseaux de communications mobiles et sans fil deviennent plus sophistiqués d’une génération à l’autre pour répondre au trafic grandissant de données ainsi qu’à un débit binaire et une qualité de service élevés. Améliorer la performance en termes de capacité, débit binaire ou qualité de service tout en minimisant la complexité peut rendre la prochaine génération de télécommunication faisable et par conséquent, bénéficier à la fois le consommateur et le fournisseur de services. A cause des limites fondamentales des techniques conventionnelles,&#xD;
les recherches récentes dans le domaine des communications ont exploré l’application de l’apprentissage en profondeur pour améliorer la performance ou pour réduire la complexité en utilisant les capacités supérieures d’apprentissage algorithmique d’un réseau de neurones artificiels à partir de données et des recherches sont menées activement pour 6G. En guise de&#xD;
réponse, cette étude examine l’application de l’apprentissage en profondeur dans la couche physique des systèmes de communications pour voir s’il y a un avantage ou gain significatif par rapport aux méthodes traditionnelles. L’approche que nous proposons consiste à appliquer l’apprentissage en profondeur de façon à préserver la simplicité tout en maximisant la performance en utilisant conjointement des techniques conventionnelles et l’apprentissage&#xD;
en profondeur. L’autoencodeur et Réseau Antagoniste Générateur Conditionnel (Conditional Generative Adversarial Network (CGAN)) sont utilisés pour qu’ils puissent suivre ensemble les changements dans le canal sans fil et adapter le type de modulation afin de maintenir la qualité de service: l’efficacité spectrale est maximisée sous réserve d’une performance minimale de probabilité d’erreur. Le CGAN apprend la distribution de probabilité conditionnelle d’un canal donné à partir des données et d’après cette approximation, l’autoencodeur est entrainé d’un bout à l’autre pour obtenir la constellation optimale pour un cas spécifique de Eb/No. La modulation adaptative basée sur l’autoencodeur est intégrée avec le multiplexage par division de fréquence orthogonale (orthogonal frequency division multiplexing (OFDM)) pour bénéficier des avantages de la modulation avec porteuses multiples : débit binaire élevé, implantation numérique et égalisation simples. L’application de la modulation adaptative basée sur un autoencodeur résulte en un gain de 2.5-3 dB dans la probabilité d’erreur par bit pour des valeurs de Eb/No faibles&#xD;
(moins de 3 dB) et en une réduction de la complexité d’implantation car le même réseau de neurones avec un nombre relativement fixe de paramètres d’entrainement peut être utilisé pour un grand nombre de types de modulation. Cette recherche introduit une méthodologie de conception hybride qui concentre la tâche d’apprentissage au niveau de sous-composantes (modulation adaptative) sans supposer que le modèle du canal soit connu: la complexité&#xD;
d’entrainement est minimisée pour permettre un entrainement en ligne. Finalement, les résultats de la solution de l’apprentissage en profondeur peuvent être facilement analysés et interprétés tout en bénéficiant des avantages principaux des algorithmes bien établis en communications.</description>
      <pubDate>Sat, 30 Apr 2022 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">https://hdl.handle.net/11264/2543</guid>
      <dc:date>2022-04-30T00:00:00Z</dc:date>
    </item>
  </channel>
</rss>

