(연구배경 및 목적) 디자인 과정에서 아이디어의 시각화는 창의적인 구상을 구체화하는 데 있어 중요한 단계이다. 특히 조경디자인과 같은 공간을 다루는 분야에서 도면 시각화 작업은 프로젝트의 시각적 이해에 직접적으로 영향을 미친다. 그러나 기존의 방법으로 도면의 시각화 작업은 시간이 많이 소요되며 상당한 노력을 요구한다. 최근 기술의 발전으로 생성형 인공지능(AI) 기술이 하루가 다르게 발전해 가고 있고, 이는 도면의 시각화 작업의 효율성을 대폭 개선할 수 있는 가능성을 가지고 있다. 따라서 본 연구는 이미지 생성 인공지능을 통한 조경 공간의 시각화작업의 활용 가능성을 알아보고자 하는데 목적이 있다. (연구방법) 본 연구는 선행연구를 통해 생성형 인공지능에 대해 알아보고, 이를 기반으로 이미지 생성 인공지능 플랫폼의 인공지능의 기능을 알아보았다. 그리고 이미지를 생성하여 각각의 이미지 생성 인공지능의 활용 가능성과 한계를 확인하였다. 그 후 확장기능을 가지고 있어 세부 조정이 가능한 Stable Diffusion으로 연구를 진행하였고, 조경 분야에 특화된 메인모델과 확장모델을 이용하여 이미지를 생성하고 비교·분석하였다. 그 결과를 통해 향후 연구 방향에 대하여 알아보았다. (결과) Stable Diffusion, Midjourney, Dall-E, Adobe Firefly의 기본 기능으로 생성된 이미지들은 평면도 형태를 재현할 수 있었으나, 세부적인 특성과기준 도면 이미지를 충실히 반영하는 데는 한계가 있었다. 이에 Stable Diffusion의 ControlNet 확장기능을 통해 이미지를 추가생성하였고, 기준 도면 이미지의 채색 평면도 생성 가능성을 확인하였다. 다음으로 보다 디테일한 이미지 생성을 위해 Stable Diffusion의 ControlNet, LoRA 확장기능을 사용하여 이미지 생성을 하였다. 또한, 메인 모델인 Checkpoint와 LoRA 확장모델을 오픈 소스로 3개씩 다운로드하여 교차로 이미지를 생성하였다. 오픈 소스 모델들은 모두 조경 분야와 평면도 생성에 특화된모델을 사용하였다. 그 결과, 특정한 Checkpoint 모델과 LoRA 확장모델을 사용하였을 때, 보다 나은 이미지가 생성되는 것을볼 수 있었다. 부분 수정에서는 Stable Diffusion의 Inpaint 기능을 이용하여 바닥포장을 수정하였는데, 처음 생성된 이미지와같은 수준의 수정이 이루어지지는 않았다. (결론) 이 연구는 이미지 생성 인공지능이 조경 디자인 분야에서 평면도 채색화를 자동화할 수 있는 도구가 될 수 있음을 확인한 것에 의의가 있다. 연구에서 최종적으로 활용된 인공지능인 Stable Diffusion은 특정 분야에 파인 튜닝한 메인모델과 확장모델을 사용할 수 있다는 이점을 가지고 있다. 현재 연구에서 사용된 모델은 직접적으로학습시키지 않고, 웹상의 오픈 소스를 사용했기 때문에 생성된 이미지의 품질 면에서 제한이 있었다. 하지만 이러한 모델들을 조경 평면도의 특성에 맞춰 최적화하고 학습시킨 모델을 생성할 경우, 훨씬 더 정밀하고 세밀한 평면도 채색 이미지의 자동 생성이가능할 것으로 생각되었다.
(Background and Purpose) The visualisation of ideas constitutes a crucial phase in the development of creative concepts.
The depiction of drawings is pivotal to the comprehension of a spatial project, particularly in disciplines that involve space, such as landscape design. Nevertheless, the visualisation of drawings is inherently time-consuming and labor-intensive.
Recent technological advancements have led to the advent of rapid developments in generative artificial intelligence (AI) technologies, which have the potential to markedly enhance the efficiency of visualization work for drawings. This study aimed to investigate the feasibility of utilising image-generating AI to visualize landscape spaces. (Methods) This study commenced with a review of extant research on generating AI, followed by an examination of the capabilities of various AI platforms for image generation. Images were created to assess the potential and limitations of utilising AIs for landscape planning purposes. Subsequently, the research then focused on stable diffusion, which permits comprehensive customization through its extension capabilities. Using specialized basic and extension models tailored for landscape design, images were generated, compared, and analyzed to determine future research directions. (Results) Although the fundamental characteristics of stable diffusion, Midjourney, Dall-E, and Adobe Firefly were capable of replicating general plan forms, they were unable to accurately reflect detailed features and standard drawing images accurately. Therefore, supplementary images were created using the ControlNet extension of Stable Diffusion, which demonstrated the capacity to create plan images that closely matched standard drawings. Further images with augmented detail were created using the ControlNet and LoRA extension features of the stable diffusion software. In addition, three ControlNet and LoRA extension models with a specialisation in landscape and plan generation were downloaded as open sources and implemented to create intersection images. The utilisation of specific specific ControlNet and LoRA models are used. In the context of partial modifications, the inpainting feature of Stable Diffusion was employed to adjust the pavement, although the adjustments did not reach the level of detail as those observed in the original generated images. (Conclusions) The findings of these experiments demonstrate that image-generating AI can be utilised as an effective automated tool for the generation of coloured plans in landscape design. The use of Stable Diffusion, the AI deployed in this study, offers the advantage of using finely tuned main and extension models for specific areas. The models utilized in the current study were not trained directly; rather, they were sourced from open-source web resources, which may have resulted in the generation of images of inferior quality.
Nevertheless, if these models were optimized and trained on the characteristics of landscape floor plans, it would be feasible to automatically generate considerably more precise and detailed plan coloring images.