虚拟串口服务器应用(精选8篇)
1.虚拟串口服务器应用 篇一
串口通讯服务器・什么是网络协议
网络协议是网络上所有设备(网络服务器、计算机及交换机、路由器、防火墙等)之间通信规则的集合,它定义了通信时信息必须采用的格式和这些格式的意义。大多数网络都采用分层的体系结构,每一层都建立在它的下层之上,向它的上一层提供一定的服务,而把如何实现这一服务的细节对上一层加以屏蔽。一台设备上的第n层与另一台设备上的第n层进行通信的规则就是第n层协议。在网络的各层中存在着许多协议,接收方和发送方同层的协议必须一致,否则一方将无法识别另一方发出的信息。网络协议使网络上各种设备能够相互交换信息。常见的协议有:TCP/IP协议、IPX/SPX协议、NetBEUI协议等。在局域网中用得的比较多的是IPX/SPX.。用户如果访问Internet,则必须在网络协议中添加TCP/IP协议。
TCP/IP是“transmission Control Protocol/Internet Protocol”的简写,中文译名为传输控制协议/互联网络协议)协议, TCP/IP(传输控制协议/网间协议)是一种网络通信协议,它规范了网络上的所有通信设备,尤其是一个主机与另一个主机之间的数据往来格式以及传送方式。TCP/IP是INTERNET的基础协议,也是一种电脑数据打包和寻址的`标准方法。在数据传送中,可以形象地理解为有两个信封,TCP和IP就像是信封,要传递的信息被划分成若干段,每一段塞入一个TCP信封,并在该信封面上记录有分段号的信息,再将TCP信封塞入IP大信封,发送上网。在接受端,一个TCP软件包收集信封,抽出数据,按发送前的顺序还原,并加以校验,若发现差错,TCP将会要求重发。因此,TCP/IP在INTERNET中几乎可以无差错地传送数据。 对普通用户来说,并不需要了解网络协议的整个结构,仅需了解IP的地址格式,即可与世界各地进行网络通信。
IPX/SPX是基于施乐的XEROX’S Network System(XNS)协议,而SPX是基于施乐的XEROX’S SPP(Sequenced Packet Protocol:顺序包协议)协议,它们都是由novell公司开发出来应用于局域网的一种高速协议。它和TCP/IP的一个显著不同就是它不使用ip地址,而是使用网卡的物理地址即(MAC)地址。在实际使用中,它基本不需要什么设置,装上就可以使用了。由于其在网络普及初期发挥了巨大的作用,所以得到了很多厂商的支持,包括microsoft等,到现在很多软件和硬件也均支持这种协议。
NetBEUI即NetBios Enhanced User Interface ,或NetBios增强用户接口。它是NetBIOS协议的增强版本,曾被许多操作系统采用,例如Windows for Workgroup、Win 9x系列、Windows NT等。NETBEUI协议在许多情形下很有用,是WINDOWS98之前的操作系统的缺省协议。总之NetBEUI协议是一种短小精悍、通信效率高的广播型协议,安装后不需要进行设置,特别适合于在“网络邻居”传送数据。所以建议除了TCP/IP协议之外,局域网的计算机最好也安上NetBEUI协议。另外还有一点要注意,如果一台只装了TCP/IP协议的WINDOWS98机器要想加入到WINNT域,也必须安装NetBEUI协议。
★ 离婚房产分割协议详解
★ 网络协议第二章链路层
★ 网络交换机?什么是网络交换机
★ 什么是网络拖延症
★ 档案详解
★ 网络是一把双刃剑作文
★ 异地协议离婚的程序是哪些
★ 详解建党节有哪些历史流程,建党节是纪念什么?
★ 网络求职 简历醒目是关键
★ 高三作文:网络是把双刃剑
2.虚拟串口服务器应用 篇二
1 串口服务器概述
1.1 工作原理。 所谓串口服务器, 其主要功能是进行通信数据传输, 它属于接口转化器, 而且其是由RS- 232 与TCP/IP协议共同组成的, 它的主要功能是连接网络, 实现以下两者的数据交换, 分别是RS232 串口、TCP/IP协议, 这可以使以往的串口设备得以改良, 快速连接TCP/IP网络, 通过借助以太网进行快速传播, 确保高速数据通信快速传送的实现。 串口服务器工作原理很简单, 即连接所有串口设备, 然后处理串口数据信息, 当数据流处理之后, 将其转换成IP流, 紧接着进行IP处理, 最后实施数据保存, 将其存至串口服务器。串口服务器的应用对于广播发射台具有积极的意义, 并促使以下两方面数据通信, 分别是RS232、以太网, 实施对数据进行储存, 或是提取和控制, 这使数据流能够以更好的形式进行传输, 即数据帧。
1.2 基本功能。 针对串口服务器而言, 它的主要功能体现在以下方面, 即实现太网接口设备的自由转换, 逐渐将以往的RS- 422、RS- 232 串口进行转变, 以TCP/IP作为太网接口, 这可以使数据进行双向传输, 而对于传统的RS- 232/422/485 设备来说, 其可以实现立即联网。 就广播发射台而言, 串口服务器可以在节目传输系统中发挥以下功能, 比如数据监控、采集、报警以及控制机房设备等等。这在某种程度上促进了传输发送设备能够发挥其功能性作用, 进行正常运作, 提供后台技术支持, 并且能对以下两种管理内容提供保障, 分别是信息管理、业务工作管理。
2 串口服务器在节传系统中的应用探究
2.1 音频信号切换。 串口服务器在节传系统中得到了充分利用, 其应用首先体现在音频切换设备, 即四选一的COM口, 通过将以下两种设备连接, 如串口电缆、串口服务器, 使后者接入局域网, 针对网内计算机而言, 它们如果归属同一网段, 就都可以安装如下软件, 即音频调度软件MC- radio, 然后其可以操作四选一设备。 对于音频四选一设备来说, 其主要是由三部分组成:分别是电源模块、控制模块、数据模块。 而对于每个电源模块来说, 其存在三个绿色指示灯, 分别代表不同的供电状况, 即+5V、+15V、- 15V, 一旦指示灯熄灭, 那就意味着本组电源出现问题。
2.2 网络授时应用。 串口服务器还可以实现以下功能, 即将GPS设备借助COM口, 连入串口服务器, 针对网内计算机而言, 如果它们处于同一网段, 就都能安装GPS校时软件, 然后可以对GPS实现网络化管理。 GPS正常工作时, 工作灯会持续发亮, 跟踪灯亦是如此, 1PPS灯闪, 液晶屏就会显示以下内容, 如年月日、时分秒、方位。针对Radio MC音频调度系统而言, GPS时钟, 其与服务器时钟不同时, 可以点击以下按钮, 即校正服务器时钟, 服务器时钟就会自动调节, 并与GPS时钟保持一致。
2.3 卫星接收信号。 就卫星接收机而言, 其COM口连入串口服务器, 这样我们可以有效监控卫星信号, 具体了解其传输上行接收状态, 同时也能看到其下行的情况。 卫星接收信号必须要控制在一定的范围内, 当其信号强度低于40 时, 就会出现黄色报警信息, 一旦卫星接收机不能正常运作时, 将会出现红色报警信息, 同时依据播出需求, 进行以下参数类型的设置, 如上行频率、下行频率以及本振频率, 在一般情况下, 针对音频信号而言, 其在完成下传任务时, 基本上都会选用70 路各异的音频信号。 在卫星接收机前方, 存在很多指示灯, 而它们都有自身的功能, 比如电源指示灯, 其在卫星接收机开启之后, 点亮之后应为红色。 报警指示灯, 其作用性主要体现在以下两种设备上, 即调谐器、解码器, 一旦这两者出现故障, 该指示灯就会点亮, 而其显示的颜色是红色。 锁定指示灯, 当其颜色为红色时, 这就意味着调谐已锁定, 即卫星载波信号。
2.4 UPS方面应用。 针对UPS而言, 其借助COM口, 将其连入串口服务器, 这样能实时了解UPS运行状态, 实现了有效监测, 监控主机依据上述内容可以观察UPS, 查看其各项参数是否在正常范围之内, 了解其工作状态, 如旁路状态、在线状态, 电磁充电程度;同时还提供以下信息, 如电池过载、电池故障, 针对上述问题, 提供报警信息。
2.5 节目调度, 网管监控。 针对节传系统而言, 其业务重心主要包含两方面内容:其一是节目调度、其二是监控网络, 这其中核心是节目调度, 具体表现在如下方面, 即依据播出需要, 进行调度业务, 包含录入与执行, 总的来说, 其属于节传系统反馈平台, 涵盖指挥调度中心, 还有系统设备安全运行。 串口服务器在广播发射台中起到了非常关键性的作用, 这主要体现在节目传输系统, 针对其不同设备而言, 还有节目调度监管方面, 两者之间指令信号可以相互传输, 对于播出设备来说, 其在运行过程中实时信号得以有效传播, 主要是借助串口服务器, 最终到达节目调度, 还有监控网管, 值班员可以借助相关软件, 如监控网管软件, 进而发出操作指令, 实现节目调度, 相关指令信号借助以下设备, 即串口服务器, 依据相关指令进行有效操作, 如紧急播出、添加运行图, 增加日常调度等等。
增加日常调度, 其具体操作方法如下:首先, 将设备调至节目调度界面, 点击鼠标左键, 进而选择调度指令, 确定机号, 选择调度令, 就会弹出运行图, 可以给予调度令界面;其次, 依据调度令, 设置节目路数, 或是节目起止时间, 在上述信息确认无误之后, 点击保存与审核;再次, 弹出对话框之后, 输入管理员信息, 如账号与密码, 点击确定, 添加完成。 在增加日常调度令时, 要注意如下事项:看清调度令, 直至检查无误之后, 才能逐一添加调度令。
结束语
综上所述, 对于广播发射台而言, 节传系统非常重要, 其主要任务是节目调度、信号传输, 而在节传系统中, 主要借助串口服务器连接实现节目传播, 促使广播设备实现网络传输。 文章主要分析了串口服务器的主要工作原理以及功能, 重点阐述了该服务器在节传系统中的具体应用。
参考文献
[1]戴宁江, 唐龙, 钟声洪, 冯景锋.江西省广播发射台发射机监控系统研究[J].广播与电视技术, 2015 (5) .
[2]梁山.广播发射台节传系统串口服务器功能应用探析[J].科教导刊 (上旬刊) , 2015 (7) .
[3]李久会.广播发射台变电站自动化系统的网络结构设计[J].数字技术与应用, 2014 (2) .
[4]桑志彬.基于网络自动化的节传机房系统应用[J].数字技术与应用, 2014 (2) .
3.服务器虚拟化技术的应用分析 篇三
【关键词】服务器;虚拟化技术;信息资源;应用分析
近年来,伴随着网络技术的发展,虚拟化技术在数字化信息领域中占领了一席之地。虚拟化,是指通过虚拟化技术将原本在计算机上运行的系统组建虚拟为多台计算机运行,并可以实现多台计算机中系统及应用程序的相互独立运行,互不干涉,从而提高计算机资源的利用率。
1.服务器虚拟化概述
虚拟化服务器,简单来讲,就是在一台物理机上运行多個相互独立的操作系统,通过虚拟化的软件将一台物理机划分为多个虚拟机,但同时每台计算机都有其各自的CPU,内存,硬盘等虚拟的物理资源。虚拟化服务器是从逻辑角度实现对资源的合理配置,对于用户来说,不需要考虑后台的硬件设施,只需要借助虚拟化服务器即可运行自己的系统和软件,同时,各个运行系统和软件之间相互独立,互不干扰,大大提高了资源的利用率。用户仅需对现有的基础设施进行一系列的改造即可提高IT的响应速度及其灵活性,因此,虚拟化的服务器被越来越多的用户所推崇。以下是常用的服务器虚拟化软件及其技术特点,见表1。
2.服务器虚拟化主要的的技术
2.1 CPU的虚拟化技术
CPU的虚拟化即一个CPU模拟多个CPU运行,多个操作系统可在同一个平台进行运行,并且各个应用程序间的运行互不影响,可显著提高计算机的工作效率。CPU的虚拟化主要包括:(1)可将执行指令分为多个操作,实现多个操作各自占用一个虚拟CPU;(2)可根据不同指令需要CPU的不同工作部位,将单个CPU模拟成多个虚拟CPU,实现几个指令同时可使用一个CPU;(3)可实现不同用户独自拥有一个CPU[1]。
2.2内存的虚拟化技术
内存虚拟化即将多个虚拟机所需要的内存统一管理,使每个虚拟机各自拥有独立的空间,并根据配置大小消耗内存。并且系统会将闲置内存为每个正在运行的虚拟机预留一定的物理内存。同时VMM可将虚拟机内存切换到磁盘,因此,虚拟机所申请的内存允许超过机器的物理内存。
2.3 I/O设备的虚拟化技术
I/O设备虚拟化技术是把真实设备包装成多个虚拟设备给若干虚拟机使用。包括全设备虚拟化,半虚拟化及I/O的直接虚拟。
3.服务器虚拟化技术应用分析
3.1服务器虚拟化技术的优点
对服务器进行虚拟化改善具有以下几个优点:(1)提高了服务器的利用率,服务器虚拟化通过将多项相互独立的工作内容整合至一台服务器中,改变了传统的大部分服务器利用率低的状况,实现了资源的高效利用;(2)服务器虚拟化提高了业务的持续性,服务器虚拟化所具有的强大的信息存储及数据快速恢复的特性,使得对系统性能要求高的部分业务工作得以顺利进行;(3)服务器虚拟化可对多台服务器进行资源集中分配及统一管理,通过对资源进行动态调配可以自动平衡工作负荷,将正在运行的虚拟服务器迁移至其他服务器,对资源进行动态调配,实现了多个服务器间资源的共享,提高了工作效率;(4)服务器虚拟化技术将所有操作系统等安装在一台主机群集上,使计算机从用户设备中分离出来,在数据中心对资源进行整合,改善了管理并提高了系统的安全性。若随时有新的服务引用时,用户可在短时间内虚拟出一台新的服务器,并在服务器上安装所需要的应用程序,方便快捷;(5)虚拟化的服务器的应用在硬件成本、能源成本、软件成本、人力等方面的成本均有一定的节约。
3.2服务器虚拟化存在的问题
虚拟化服务器在为用户提供便利的同时也存在着众多的问题。服务器虚拟化主要存在以下问题:(1)虚拟化服务器性能比单个物理服务器低,目前最先进的虚拟化服务器也会给系统性能带来5%-10%的性能损失;(2)传统应用出现故障,技术人员仅需对硬件及软件系统进行检查即可,而当虚拟化服务器发生故障时,技术人员在故障排除方面加大了难度,除需检查硬件及系统外,还需对虚拟化系统状态进行排查;(3)虚拟化服务器在购买相关软件许可证方面也存在一定的困难;(4)服务器虚拟化的服务存在一定的局限性,如果在不了解系统负载及资源使用情况的状态下,使用虚拟化服务器可能会引起应用系统的不稳定[2]。
3.3服务器虚拟化的应用建议
为了在很大程度上减少服务器虚拟化技术对一些单位业务造成的影响,一般情况下建议采用热迁移的服务器,对热迁移服务器使用失败的服务器,可采用冷克隆的方式进行迁移。其次,虚拟机在使用时易出现一些安全风险问题:(1)虚拟机的资源共享技术为其带来了一定的安全风险,当VMM本身存在一些漏洞被攻击时,记忆造成虚拟机的移除,这对虚拟机的安全造成了重大威胁;(2)传统的网络模式对每一个服务器都会有其独立的安全防护措施,而虚拟机采用新的网络模型,当各虚拟机间同时共享硬件资源时,当一台虚拟机发生问题,安全威胁就会蔓延至其他虚拟机;(3)虚拟机的滥用为引发虚拟应用的中断及主机的崩溃。针对以上问题,除需增强VMM的安全防御策略,对虚拟机的重要性进行分级,对不同安全等级的虚拟机采取不同管理模式,在虚拟网络内部增加防火墙并严格监控一些异常访问途径外,还应加强管理人员的安全意识,提高虚拟机的安全性能[3]。
4.结束语
目前很多企业及单位在处理信息资源时都存在着数据庞大及复杂的问题,同时操作起来的话不仅工作量大而且运营成本高昂,因此,虚拟化服务器的应用对一些中小企业有重大的意义。但用户在使用之前,必须对虚拟化服务器进行深入地了解,并对需要处理的相关信息资源进行一定的整理,尽可能避免虚拟化服务器在使用时发生故障,使服务器虚拟化技术在网络办公中发挥其真正的价值。 [科]
【参考文献】
[1]赵妮.服务器虚拟化技术探析[J].信息通信,2014,(4):114.
[2]韩寓.服务器虚拟化技术研究与分析[J].电脑知识与技术,2011,07(7):1654-1655.
4.虚拟串口服务器应用 篇四
摘要:SP2538是采用低功耗CMOS工艺生产的专用串行口(RS232)扩展芯片,它可将单片机或DSP等原有的单UART串口扩展至5个全双工UART口,从而解决了此类器件串口太少的问题。文中介绍了SP2538的性能特点,引脚功能及应用方法,并以单片机为例给出了多串口扩展的硬件电路及相应的通信程序。
关键词:RS-232;串口扩展;单片机;SP2538
1 概述
SP2538是专用低功耗串行口扩展芯片,该芯片主要是为解决当前基于UART串口通信的外围智能模块及器件较多,而单片机或DSP原有的UART串口又过少的问题而推出的。利用该器件可将现有单片机或DSP的单串口扩展至5个全双工串口。与其它具有多串口的单片机或串口扩展方案相比,采用SP2538实现的多串口扩展方案,具有扩展串口数量多、对扩展单片机的软硬件资源占用少、使用方法简单、待扩展串口可实现较高的波特率、成本低廉、性价比高等优点。同时,它还具有如下特点:
●可将单UART串口扩展为5个UART串口;
●工作速率范围宽,5个子串口可产生2400bps~9600bps之间的任意波特率;
●可全双工工作,母串口和所有子串口都支持全双工UART传输模式;
●工作电源电压范围宽:3.3V~5.5V;(本网网收集整理)
●典型工作电流为4.6mA(子串口速率为9600bps、VCC为3.3V时);
●资源占用少,除占用上位机原有串行口中断外,不占用任何中断资源;
●具有节电模式,进入节电模式后,其典型静态电流约8μA;
●上位机发送数据可自动唤醒;
●输出误差小,所有子串口的输出波特率误差均小于0.08%;
●误码率低于10-9(所有串行口数据输入波特率误差小于等于±2%);
●接收范围宽,波特率误差小于2.5%时,子串口即可完全正确接收;母串口的接收范围更宽,并可自适应56000bps和57600bps两种标准波特率(fosc―in 为20.0MHz时);
● 可用上位机进行监控,并具有上电复位和看门狗监控输出,适用于没有看门狗或需要更多重监控的高可靠上位机程序监控系统。
2 引脚功能
SP2538具有双列直插DIP及双列贴片SOIC两种封装形式。后缀为SP2538xxH的复位时输出高电平而后缀为SP2538xxL的复位时输出低电平,可分别适用高、低电平复位的单片机。图1给出了DIP封装高电平复位SP2538DPH的外形及引脚排列图,各引脚的功能说明列于表1。
表1 SP2538引脚说明
引脚名称引脚编号引脚类型引 脚 描 述TX5~TX01、3、5、7、9、14Output串口5~串口0数据发送(连接上位机RX口)RX5~RX02、4、6、8、10、13Input串口5~串口0数据接收(连接上位机TX口)VCC111- - -电源1(逻辑电路电源)+RST12Output复位控制输出(适用于高电平复位的MCU)VCC215- - -电源2(时钟电路电源)GND16- - -电源地OSCI17Input时钟输入(用于波特率发生器等)OSCO18Output时钟输出ADRI0~ADRI219~21Input母串口(RX5)数据接收地址0~2ADRO0~ADRO222~24Output母串口(RX5)数据发送地址0~2
3 应用说明
3.1 母串口收发数据过程与时序
(1)上位机接收来自母串口的数据
上位机从母串口接收到一个字节数据后,会立即读取SP2538的输出地址ADRO2~ADRO0(编码方式为:8-4-2-1码),然后根据输出地址的编码即可判断接收到的数据来自哪个子串口,上位机接收来自母串口的数据时序如图2所示。
(2)上位机向母串口发送数据
发送数据时,上位机首先通过串口写入欲发送数据的子串口号,即先由上位机的串口发送数据地址ADRI2~ADRI0(编码方式:8-4-2-1码),然后将欲发送的.数据由上位机串口发出。需要注意的是:母串口的波特率是子串口的6倍,即上位机在连续向母串口发送6个字节的时间内,子串口才能发送完一个字节。上位机向母串口发送数据的时序如图3所示。表2列出了SP2538的操作时限要求。
表2 SP2538操作时限
时限内容说 明最 小 值典 型 值最 大 值Tpwr-up上电复位延时150ms……Treset芯片指令复位时间……50μsTwdt-rst看门狗溢出复位脉冲宽度80ms……Taddr-in数据接收地址保持时间10ns……Twake-up芯片唤醒延时……9msTaddr-hold数据发送地址保持时间(2/fosc-in)ms……Twdt-over看门狗溢出周期800ms……
3.2 其它说明
母串口和所有子串口内部均具有独立的数据发送缓冲存储器(FIFO Buffer)和接收缓冲存储器(FIFO Buffer),所有的RS232串行口都支持全双工异步传输模式,即所有串行口都可以同时独立接收和发送数据,且不会丢失任何数据。
母串口波特率由K1=2880 fosc-in计算,其单位为MHz,且fosc―in小于20.0Hz。在SP2538输入时钟fosc―in为20.0MHz时,母串口可自动适应上位机的56000bps和57600bps两种标准波特率输入,即fosc―in为20.0MHz时,上位机的RS232波特率可以设置成56000bps或57600bps。子串口波特率为:K2=480 fosc―in 。
母串口和所有子串口都是TTL电平接口,可直接与单片机或TTL数字电路接口,若需连接PC机,则必须增加电平转换芯片,如MAX202,ICL232等。
SP2538具有内置的上电复位电路和可关闭的看门狗监控电路,用于监控上位机程序是否正常运行,同时也可以简化上位机复位电路的设计。上位机写命令字“0x10”可实现喂狗,而写命令字“0x15”则可关闭看门狗(初次上电后,看门狗处于激活状态),写命令字“0x20”可激活看门狗监控功能。
上位机可通过芯片复位指令(命令字为“0x35”)在任何时候对芯片进行指令复位(复位时间Treset小于50μs)。
图2和图3
上位机可通过芯片睡眠指令(命令字为“0x55”)使芯片在任何时候进入微功耗睡眠模式,以降低系统功耗。初次上电后,芯片不会自行进入睡眠模式。应当注意的是,只能由上位机发送任意一个字节数据将其唤醒,而其它所有子串口均不能将其唤醒。
未使用的输入端口(如:RX0、RX1、RX2…等)必须连接到VCC,未使用的输出端口(如:TX0、TX1、TX2…、ADRO0、ADRO1…等)必须悬空。
4 应用实例
SP2538的应用领域包括数据采集、工业控制、仪器仪表、智能家电、医疗设备、税控加油机、商业POS机、家庭安防控制、车辆监控和调度、GPS卫星定位与导航、有线及无线数据传输、基于PC机的多串口卡、水、电、气表抄表系统、室外多媒体电子广告以及其它对通信稳定性、成本和开发周期要求比较严格的各种应用和工业MODEM阵列等方面。
4.1 应用电路
利用SP2538可将仅有一个UART串口的单片机扩展为具有5个UART串口的单片机。图4以常用的AT89C52单片机为例给出了相应的串口扩展电路。图中,AT89C52的全双工串口与SP2538的母串口5相连。该串口5同时也作为命令/数据口。SP2538的ADRI0、ADRI1、ADRI2分别与AT89C52的P2.3、P2.4、P2.5口相连,可用于选择发送数据时的相应串口0~4,ADRO0、ADRO1、ADRO2与AT89C52的P2.0、P2.1、P2.2口线相连,可用于判别接收的数据来自串口0~4的哪一个。SP2538的时钟频率可选为20MHz,此时母串口5的波特率为57600bps,串口0~4的波特率为9600bps。
4.2 应用程序
下面是与上述硬件电路相关的接口程序,该程序用C51语言编制,程序分为上位机发送、接收中断服务程序和主程序两部分。
uchar idata uart0_t_but[8];?
uchar idata send_buf[8];
uchar idata uart0_r_but
uchar idata uart0_send_num
uchar idata uart_port_num,send_byte_num,uart_point-er?
bit bdata write success,uart_busy;
bit bdata uart0_receive
sbit ADRI_0=P2^0;
sbit ADRI_1=P2^1;
sbit ADRI_2=P2^2;
sbit ADRO_0=P2^3;
sbit ADRO_1=P2^4;
sbit ADRO_2=P2^5;
serialinterrupt4 using3{ //上位机RS232接收、发送中断入口
if(RI){?
RI=0;
Switch(P2&0x07){
case
uart0_r_buf=SBUF
uart0_receive=1
break;
}
else {
TI=0;
switch(uart_pointer){
case
uart_pointer++;
if(uart0_send_num){
ADRO_0=0;
ADRO_1=0;
ADRO_2=0;
Uart0_send_num--;
SBUF=uart0_t_buf[uart0_send_num]
uart_busy=1
break;
}
elseif(uart1_send_num|uart2_send_num|uart3_send_num|uart4_send_num)
{
ADRO_0=0
ADRO_1=0
ADRO_2=0
SBUF=0x00
uart_busy=1
break;
}
else {uart_busy=0;break;}
}
注: case1:…
case2:…
case3:…
case4:…
除地址不同外其余同case0。
Void uart_send(unchar uart_port_num,uchar send_byte num){
uchar i
switch(uart_port_num)“
case
for(i=0;i
uart0_t_buff[i]=send_buf[i];?
}
uart0_send_num=send_byte_num;
write_success=1;
if(uart_busy==0){
T1=1;
uart_pointer=0;
break;
}
else{break;}?
}
注: case1:…
case2:…
case3:…
case4:…
除地址不同外其余同case0。
main(){
TMOD=0x20;
THI=0xff;
TCON=0x40;
SCON=0x50;
PCON=0x80; //波特率加倍
IE=0x90;
PI=0;
while(1)“?
send_buf[0]=0x31;
write_success=0;
if(!uart0_send_num){
uart_send(0,4)
}
}
}
5 结束语
5.虚拟串口服务器应用 篇五
Linux Virtual Server,简称LVS。是由中国一个Linux程序员发起的开发项目计划,其实现目标是创建一个具有良好的扩展性、高可靠性、高性能和高可用性的,基于Linux系统的服务器集群。
1.LVS系统结构与特点
使用LVS架设的服务器集群系统从体系结构上看是透明的,最终用户只感觉到一个虚拟服务器.物理服务器之间可以通过高速的LAN或分布在各地的WAN相连。最前端是负载均衡器,它负责将各种服务请求分发给后面的物理服务器,让整个集群表现得象一个服务于同一IP地址的虚拟服务器。
LVS集群系统具有良好的可扩展性和高可用性。
可扩展性是指,LVS集群建立后,可以很容易地根据实际的需要增加或减少物理服务器。而高可用性是指当检测到服务器节点或服务进程出错、失效时,集群系统能够自动进行适当的重新调整系统。
2.LVS是如何工作的
Linux Virtual Server的主要是在负载均衡器上实现的,负载均衡器是一台加了LVS Patch的2.2.x版内核的Linux系统。LVS Patch可以通过重新编译内核的方法加入内核,也可以当作一个动态的模块插入现在的内核中。
负载均衡器可以运行在以下三种模式下中的一种或几种: 1)Virtual Server via NAT(VS-NAT):用地址翻译实现虚拟服务器;2)Virtual Server via IP Tunneling (VS-TUN):用IP隧道技术实现虚拟服务器;3)Virtual Server via Direct Routing(VS-DR):用直接路由技术实现虚拟服务器。
另外,还需要根据LVS应用对物理服务器进行恰当的配置。
以下将分别讲述一下三种模式的工作原理和优缺点。
2.1.Virtual server via NAT(VS-NAT)
Virtual Server via NAT方法的最大优点是集群中的物理服务器可以使用任何支持TCP/IP操作系统,物理服务器可以分配Internet的保留私有地址,只有负载均衡器需要一个合法的IP地址。
这种实现方法的最大的缺点是扩展性有限。当服务器节点(普通PC服务器)数据增长到20个或更多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器再生。假使TCP包的平均长度是536字节的话,平均包再生延迟时间大约为60us(在Pentium处理器上计算的,采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93M/s,假定每台物理服务器的平台容许能力为400K/s来计算,负责均衡器能为22台物理服务器计算。
Virtual Server via NAT能够满足许多服务器的服务性能需求。即使是是负载均衡器成为整个系统的瓶颈,如果是这样也有两种方法来解决它。一种是混合处理,另一种是采用Virtual Server via IP tunneling或Virtual Server via direct routing。如果采用混合处理的方法,将需要许多同属单一的RR DNS域。你采用Virtual Server via IP tunneling或Virtual Server via direct routing以获得更好的可扩展性。也可以嵌套使用负载均衡器,在最前端的是VS-Tunneling或VS-Drouting的负载均衡器,然后后面采用VS-NAT的负载均衡器。
2.2.Virtual server via IP tunneling(VS-TUN)
采用VS-NAT方式,请求与应答包都需要经过负载均衡器,那么当服务器节点增长到20个或更多时,这个负载均衡器就可能成为新的瓶颈。我们发现,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大。
而使用VS-TUN方式的话,负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。
IP tunneling(IP隧道)能够用于架构一个高性能的virtual server,非常适合构建virtual proxy server,因为当代理服务器收到了请求,能够让最终用户直接与服务器联系。
但是,这种方式需要所有的服务器支持“IP Tunneling”(IP Encapsulation)协议,我仅在Linux系统上实现了这个,如果你能让其它操作系统支持,还在探索之中。
2.3.Virtual Server via Direct Routing(VS-DR)
就象VS-TUN一下,在VS-DR方式下,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。这种方式能够大大提高Virtual Server的可扩展性。与VS-TUN相比,VS-DR这种实现方式不需要隧道结构,但它要求负载均衡器的网卡必须与物理网卡在一个物理段上。
而且VS-DR模式,可以使用大多数操作系统做为物理服务器,其中包括:Linux 2.0.36、2.2.9、2.2.10、2.2.12;Solaris 2.5.1、2.6、2.7;FreeBSD 3.1、3.2、3.3;NT4.0无需打补丁;IRIX 6.5;HPUX11等
3.安装配置LVS
LVS的安装配置主要可以分成以下三个步骤:
1) 下载LVS软件;
2) 安装、配置负载均衡器;
3) 安装、配置物理服务器;
3.1. 安装前的准备
1).下载LVS软件:
大家可以到LVS的主页(www.linuxvirtualserver.org),选择“Software”链接,选取最新版的补丁包(tar包)下载。这个包里包含了内核补丁和源程序。
2).安装的指导思想
如果你选用了VS-NAT模式的话,则可以使用所有支持TCP/IP协议的操作系统构建的机器作物理服务器,并且无须做任何修改。
如果你选用了VS-TUN模式的话,则选择Linux作物理服务器的操作系统,并根据后面的介绍做相应的设置。
如果你选用了VS-DR模式的话,则可以选择大多数操作系统(如上节所述)作物理服务器,并根据后面的介绍做相应的设置。
3).各种操作系统作物理服务器的要点详解
a)Linux 2.0.36
这种操作系统无需做任何修改,就可以运行在VS-NAT、VS-Tun、VS-DR三种模式下。
b)Linux 2.2.x
无需任何修改就可运行VS-NAT模式。而使用VS-DR和VS-Tun两种模式可能会引起ARP问题。这种情况
就必须:¨ 为2.2.x内核打补丁
・ Stephen WillIams的补丁包:
你可以在www.linuxvirtualserver.org/sdw_fullarpfix.patch获取,它的原理十分简单:让物理服务器不响应对虚拟IP的ARP请求。
・ Julian Anastasov的补丁包:
你可以在www.linuxvirtualserver.org/arp_invisible-2213-2.diff处获取,然后用以下方法使其生效:
echo 1 > /proc/sys/net/ipv4/conf//arp_invisible
¨ 新添一块网卡承载虚拟IP地址:
你可以选择一块ISA网卡或廉价的PCI网卡来用于这个功能。你可以将这个接口的ARP功能关闭。
¨ 将物理服务器放置于与虚拟IP地址不同的网络上,并且确认客户端无法直接路由到物理服务器所在网段。这种方法需要在负载均衡器上有两块网卡象防火墙一样工作。
¨ 在客户端或路由器将虚拟IP地址与负载均衡器的物理MAC地址绑定。
¨ 使用IPCHINA重写每一个进入的包,将其从lo接口送入。
c)其它操作系统
如果是VS-NAT的话,无需修改。如果是VS-DR的话,需要采取一些相应的配置方法设置物理服务器的IP地址,使其拥有LVS的虚拟IP地址。用其它操作系统的话不能使用VS-Tun方法。
4).准备硬件环境
构建服务器集群系统,至少需要3台机器,1台用于负载均衡器,2台用于物理服务器。少于这个数字的话就没有意义了。
负载均衡器:运行在打了补丁的2.2.x核心Linux系统。
物理服务器:
VS-NAT:任何机器、任何操作系统,运行Internet网络服务,如 HTTP、FTP、Telnet、SMTP、NNTP、DNS等。
VS-TUN:任何机器、支持IP隧道的操作系统(迄今为止仅有Linux)
VS-DR:任何机器、大多操作系统。
3.2. 理解LVS的相关术语
1).ipvsadm
ipvsadm是LVS的一个用户界面。在负载均衡器上编译、安装ipvsadm:
ipvsadm sets
2).调度算法
LVS的负载均衡器有以下几种调度规则:
Round-robin,简称rr,weighted Round-robin,简称wrr,每个新的连接被轮流指派到每个物理服务器。
Least-connected,简称lc,weighted Least-connected,简称wlc,每个新的连接被分配到负担最小的服务器。
Persistent client connection,简称pclearcase/“ target=”_blank“ >cc,(持续的客户端连接,内核2.2.10版以后才支持)。所有来自同一个IP的客户端将一直连接到同一个物理服务器。超时时间被设置为360秒。Pcc是为https和cookie服务设置的。在这处调度规则下,第一次连接后,所有以后来自相同客户端的连接(包括来自其它端口)将会发送到相同的物理服务器。但这也会带来一个问题,大约有25%的Internet可能具有相同的IP地址(AOL的
客户是通过位于美国弗吉尼亚洲的一台服务器连入Internet的),这种情况下只要有一个AOL的客户连接到一个物理服务器上,那么所有来自AOL的客户连接将都被连到这一台物理服务器上。这将多么可怕呀!
3).Persistent port connection调度算法
在内核2.2.12版以后,pcc功能已从一个调度算法(你可以选择不同的调度算法:rr、wrr、lc、wlc、pcc)演变成为了一个开关选项(你可以让rr、 wrr、lc、wlc具备pcc的属性)。在设置时,如果你没有选择调度算法时,ipvsadm将默认为wlc算法。
在Persistent port connection(ppc)算法下,连接的指派是基于端口的,例如,来自相同终端的80端口与443端口的请求,将被分配到不同的物理服务器上。
不幸的是,如果你需要在的网站上采用cookies时将出问题,因为http是使用80端口,然而cookies需要使用443端口,这种方法下,很可能会出现cookies不正常的情况。
3.3. 配置实例
1).例一:https only
a)在lvs_dr.conf 文件写入:
SERVICE=t https ppc 192.168.1.1
b)Ipvsadm设置:
IP Virtual Server version 0.9.4 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP ssl.mack.net:https wlc persistent 360
-> di.mack.net:https Route 1 0 0
2).例二:All ports sticky,超时为30分,wrr调度算法
a)在lvs_dr.conf 文件写入:
SERVICE=t 0 wrr ppc -t 1800 192.168.1.1
#ppc persistent connection, timeout 1800 sec
/sbin/ipvsadm -A -t 192.168.1.110:0 -s wrr -p 1800
echo ”adding service 0 to realserver 192.168.1.1 using connection
(接上行) type dr weight 1“
/sbin/ipvsadm -a -t 192.168.1.110:0 -R 192.168.1.1 -g -w 1
b)Ipvsadm设置:
# ipvsadm
IP Virtual Server version 0.9.4 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP ssl.mack.net:https wrr persistent 1800
-> di.mack.net:https Route 1 0 0
3.4. 配置方法
1).准备
用配置脚本*.conf作为输入产生rc.lvs脚本,然后放置在/etc/init.d或/etc/rc.d目录下,
早期版本的配置脚本可以运行在任何机器上。然而现在的配置脚本,针对不同的内核版本是有些不同的。你必须在负载均衡器上运行、检测内核版本。将在负载均衡器上的配置文件和目录,通过nfs输出这个
目录到物理服务器上以供配置需要。 必须先在负载均衡器上运行脚本rc.lvs,然后在物理服务器上运行。
根据你选择的LVS工作模式(VS-NAT、VS-Tun、VS-DR)选择适当的conf文件模板(lvs_nat.conf、
lvs_tun.conf、lvs_dr.conf),然后根据实际情况修改IP地址与服务。在缺省状态下只配置了telnet服务。
telnet服务能够很方便地用于测试:当客户机telnet登录时,根据提示符就可以知道登录到的是哪一台物理
服务器。
你可以编辑conf配置文件来增加其它的服务。在配置文件中提供了集群内部的IP地址建议值
(192.168.1.x/24、10.1.1.x/24)。
在配置文件中,你可以使用名称(如telnet)或端口(如23)来标识服务。使用名称时要注意,须与
/etc/services中匹配。/etc/services文件内容如下所示:
ssh 22/tcp
domain 53/tcp nameserver dns #the string ”dns“ needs to be added here
domain 53/tcp nameserver dns #and here
https 443/tcp
https 443/udp
在多种情况下,一台机器常需要多个IP地址,你可以使用IP别名(内核支持的可选项,一般情况下已含在内核中)来为一块网卡指定多个IP地址。
2).运行配置脚本
$ ./configure.pl lvs_nat.conf
这将产生一个rc.lvs_xxx脚本(例如:rc.lvs_nat、rc.lvs_tun、rc.lvs_dr)以及mon_xxx.cf脚本。(稍后将rc.lvs_xxx放到/etc/rc.d或/etc/init.d中去,将mon_xxx.cf放在/etc/mon目录下)。
3).rc.lvs脚本选项
a). 为负载均衡器与物理服务器增加以太网设备和路由器;
b).使用fping检查连接;
c).运行ipchains(VS-NAT方式);
d).激活ipforward;
e).关闭ICMP重定向功能(VS-DR和VS-Tun方式);
f).增加ipvsadm服务。
4).继续
在物理服务器上运行:
$ . ./rc.lvs_nat 或
$sh rc.lvs_nat
rc.lvs脚本能够自动判断是运行在负载均衡器(tests ?x /sbin/ipvsadm)还是物理服务器上(检查ifconfig)。
检查ipvsadm、ifconfig ?a和netstat ?rn的输出,检查服务/IP地址是否正确。如果不正确的话,请重
新编辑然后再运行一次。
3.5.测试LVS
检查每一台物理服务器上运行的服务,看它们的IP是不是LVS的虚拟IP―VIP(使用netstat ?an)。如果运行rc.lvs_xxx脚本没有出错的话,你从客户端telnet到VIP(在本文中是192.168.1.110),你将会登录到其中的一台物理服务器上,并看到这台物理服务器的登录提示。
在负载均衡器上查看ipvsadm的输出,你会在23端口上看到一个与物理服务器的连接。而在物理服务器上执行:$ netstat -an | grep 23命令查看到相关信息。客户端logout退出后,再次登录虚拟IP时,你将会看到另一台物理服务器的登录提示符。
4 VS-NAT模式
VS-NAT是基于CISCO的负载均衡器:LocalDirector实现的。
4.1.安装VS-NAT
根据下表设置客户端、负载均衡器、物理服务器的IP地址:
表21-2.客户端、负载均衡器、物理服务器的IP地址
机 器 IP地址
客户端 192.168.1.254
负载均衡器的虚拟IP 192.168.1.110(LVS表现的IP)
负载均衡器内部网卡 10.1.1.1
物理服务器1 10.1.1.2
物理服务器2 10.1.1.3
物理服务器3 10.1.1.4
…… ……
物理服务器n 10.1.1.n+1
物理服务器的默认
网关 10.1.1.1
对于VS-NAT方法来说,物理服务器必须位于与客户机、LVS的虚拟IP地址不同的网段上,也就是说在物理服务器上不能直接PING通客户机。
由于负载均衡器有两个IP地址,一个是LVS的虚拟IP地址,另一个IP地址是内部地址--所有物理服务器默认网关。当数据包从物理服务器发送到负载均衡器时,负载均衡器根据地址翻译(NAT)规则将包转发到客户端。(由于负载均衡器是一个地址翻译器,所以ICMP的重定向功能失效,PING无法应用)。可以采用IP别名的方法,也可以使用双网卡方法来实现这个。
配置脚本将会配置IP伪装。以下是在configure.pl脚本中的程序段:
echo ”turning on masquerading “
#setup masquerading
echo ”1“ >/proc/sys/net/ipv4/ip_forward
echo ”installing ipchain rules“
/sbin/ipchains -A forward -j MASQ -s 10.1.1.0/24 -d 0.0.0.0/0
echo ”ipchain rules “
/sbin/ipchains ?L
所有与NAT有关的规则设置都在rc.lvs_nat文件中表现。
4.2.配置VS-NAT
在负载均衡器以及每一台物理服务器上分别执行rc.lvs_xxx脚本程序,使用lvs_nat.conf这个模板来生成rc.lvs_nat配置文件。
VS-NAT将会对端口重新映射,一个来自于80端口的请求,负载均衡器会将其发给物理服务器的8000端口。由于数据包的源地址和目标地址已经被重写,所以无需对重新端口增加额外的开销。很低的重写数据包速度(60us/包)限制了VS-NAT的最大处理能力,而且VS-NAT的最大处理能力不是与增加的物理服务器成正比的。
VS-NAT实现方法的最大优点是物理服务器可以是任何一种操作系统,无需为了完成LVS而作任何修改,而且可以实现一些在Linux上不存在服务。
4.33.VS-NAT与Linux核心支持的NAT
当然可以使用ipchains或ipfw构建基于Linux内核的NAT防火墙。而使用了基于2.0.36版内核的LVS补丁包后,常规的内核模块(如ip_masq_ftp等)不再工作(而且不再需要装载)。
5.VS-DR模式
5.1.总论
VS-DR是基于IBM的NetDispathcer实现的。NetDispatcher位于WEB服务器的前端,对于客户端来说就象一台WEB服务器。NetDispatcher曾服务于奥运会、卡斯帕罗夫与深蓝电脑的国际象棋比赛。
这里有一个VS-DR的IP地址设置的实例。注意:物理服务器与VIP位于同一个网络上。
VS-DR模式在以下几方面受到了限制
1) 物理服务器和负载均衡器必须在同一个网段上(它们之间必须能使用arp协议),它们之间在数据链路层上传递数据包;
2) 客户端必须通过负载均衡器的VIP访问集群;
3) 物理服务器必须有到客户端的路由(即使客户端没有到物理服务器的路由)。因为从物理服务器返回到客户商的包,将直接发送,无须通过负载均衡器转发。
VS-DR模式下,客户端通常与负载均衡器和物理服务器位于不同的网络中,而且每一个物理服务器拥有自己对外的路由表。在下面这个简单的例子中,所有的机器都在192.168.1.0这个网络,物理服务器不需要设置默认路。网络拓扑结构如下图所示:
IP分配如下表所示:
表21-3 .IP分配
机 器 IP 地 址
客户端 本机IP:CIP 192.168.1.254
负载均衡器 本机IP:DIP 192.168.1.1
虚拟IP:VIP 192.168.1.110(ARP与客户端使用)
物理服务器1 本机IP:RIP 192.168.1.2
虚拟IP:VIP 192.168.1.110(不ARP)
物理服务器2 本机IP:RIP 192.168.1.3
虚拟IP:VIP 192.168.1.110(不ARP)
物理服务器3 本机IP:RIP 192.168.1.4
虚拟IP:VIP 192.168.1.110(不ARP)
5.2.VS-DR良好的扩展性
VS-NAT方法受限于经过负载均衡器的每一包都必须重写,用这种方法最大的数据吞吐量受限于负载均衡器的环境。(如一台Pentium机器,快速以太网,最大的数据吞吐量为80M/秒)而且增加物理服务器的数量并不能增加这个最大数据吞吐量。而使用VS-DR模式,速度限制则在每个物理服务器与Internet连接的包处理能力,而对负载均衡器的要求不大,因为其只需处理简单的包。在VS-DR的模式下,能够增加更多物理服务器以提高系统能力。
6 VS-TUN模式
6.1.总论
VS-Tun是LVS独创的的,它是基于VS-DR发展的。具有良好的可扩展性和服务吞吐量。
使用VS-Tun方式的话,必须采Linux作为物理服务器,而负载均衡器将IP请求重新包装成IPIP包后发给
物理服务器。所以物理服务器必须能够解IPIP包装才能,现在只有Linux操作系统能处理IPIP包(IP隧道技
术)。
不同于VS-DR,VS-Tun方案允许物理服务器与负载均衡器在不同的网络上,甚至允许所有的机器都在
单独的网络上,那怕物理服务器位于不同的国家(例如:做一个项目的FTP站点镜像)。在这种情况下物理
服务器将产生源地址=虚拟IP地址,目标地址=客户机IP地址的IP包。
如果物理服务器与负载均衡器位于相同的网络上,那么VS-DR和VS-Tun是等价的。VS-DR更具有灵活
性,因为大多数操作系统都可以用来构建物理服务器。
6.2. VS-Tun实例
以下是一个VS-Tun的IP配置实例。VS-Tun提供的最大方便性就是不需要服务器与客户端位于同一个网络上,仅需要客户端能寻径(有路由)到负载均衡器,物理服务器能寻径(有路由)到客户机。(返回的包直接从物理服务器到客户端,无须再经过负载均衡器)
通常使用VS-Tun模式时,客户端是与负载均衡器、物理服务器位于不同网络上的,而且每一台服务器
有一个通往外界的路由。
IP分配如下表所示:
表21-4.IP分配
机 器 IP 地 址
客户端 本机IP:CIP 192.168.1.254
负载均衡器 本机IP:DIP 192.168.1.1
虚拟IP:VIP 192.168.1.110(ARP与客户端使用)
物理服务器1 本机IP:RIP 192.168.1.2
虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)
物理服务器2 本机IP:RIP 192.168.1.3
虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)
物理服务器3 本机IP:RIP 192.168.1.4
虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)
…… …… ……
物理服务器n 本机IP:RIP 192.168.1.n+1
虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)
6.3.配置VS-Tun
1)编辑配置文件模板lvs_tun.conf后,进行配置:
$ ./configure_lvs.pl lvs_nat.conf
2)在物理服务器上运行:
$ . ./etc/rc.d/rc.lvs_tun
3)将配置文件放到/etc/rc.d或/etc/init.d目录下。
4)检查ipvsadm、ifconfig ?a和netstat ?rn的输出,检查服务/IP地址是否正确,如果有误,请修改后重新运行脚本。
6.虚拟串口服务器应用 篇六
虚拟服务器
为保证局域网的安全,默认情况下,路由器会将局域网主机的IP地址隐藏起来,使因特网计算机无法主动与局域网计算机建立连接。因此,若要使因特网用户能够访问局域网内的服务器,需要设置虚拟服务器条目。
“虚拟服务器”定义了路由器的因特网服务端口与局域网服务器IP地址之间的对应关系。因特网所有对此端口的服务请求都会转发给通过IP地址指定的局域网服务器,这样既保证了因特网用户成功访问局域网中的服务器,又不影响局域网内部的网络安全。
需求介绍
因为外网用户不能直接访问到局域网中的服务器,只能访问到路由器的外网地址,所以“虚拟服务器”的本质,其实就是将局域网中的服务器发布到路由器的外网地址上的某个端口上,当外网用户来访问路由器的外网地址时,其实访问的就是内网的服务器。
下面,我们通过一个实例来看一下“虚拟服务器”的具体应用。
拓扑图如下所示:
配置步骤
1、WEB服务器
1) 内网搭建好服务器,保证内网pc可以正常访问,以及该服务器可以正常访问互联网;
2) 登陆路由器的管理界面,选择“转发规则”->“虚拟服务器”,进行对应的端口映射设置。如在外部使用8080端口访问内部80端口的WEB服务器。
◆服务名称:填入该虚拟服务器规则的名称,最多支持28个字符。
◆外部端口:填入路由器提供给广域网访问时使用的端口,如本例中使用8080端口。
◆内部端口:填入局域网中服务器的端口,如本例中是80端口。
◆服务协议:可以选择TCP,UDP协议,或者可以都选(根据内网服务器而定)。
◆内部服务器IP:填入局域网中WEB服务器的IP地址,如本例中是192.168.1.100。
◆启用/禁用规则:“启用”表示此规则生效,“禁用”表示此规则不生效,
填入所有的信息后,点击“新增”按钮,即可添加完成。添加后的规则信息如下:
3) 设置完成后,外网pc可以使用路由器的WAN口IP加外部端口号来访问内网的WEB服务器(假设本例WAN口IP为1.1.1.1,访问方式为http://1.1.1.1:8080)。
4) 如果WAN口IP是通过PPPOE拨号或者动态获取的,用户可以通过申请花生壳动态域名,实现通过域名来访问内部服务器。
注意:若服务器对外开放端口是80端口,在实施端口映射前需要将路由器的管理端口更改,更改方法为:管理界面->系统服务->WEB服务器->服务端口->WEB服务端口,将默认的80端口修改为88或其他端口。修改后登陆路由器管理界面的方法为:LAN口IP地址:新端口。
DMZ主机
但在在某些特殊情况下,用户希望让局域网中的一台计算机完全暴露给广域网,以实现双向通信,此时可以把该计算机设置为DMZ主机。当外网用户访问路由器的外网地址时,其实访问的就是局域网中的计算机。www.dnzg.cn
局域网中设置DMZ(Demilitarized Zone,非军事区)主机后,该主机将完全暴露给广域网,可以实现双向无限制通信。
DMZ主机实际上就是一个开放了所有端口的虚拟服务器,当需要设置的虚拟服务器的开放端口不确定时,可以把它设置成DMZ主机。
选择菜单转发规则→DMZ主机,可以在图 5-28所示界面中设置DMZ主机。
▲ DMZ主机
DMZ状态: 选择是否启用DMZ主机功能。
DMZ主机IP地址: 输入要设置为DMZ主机的局域网计算机的静态IP地址。
完成设置后,点击保存按钮。
实例:把局域网中IP地址为192.168.0.10的计算机设置为DMZ主机,以实现它与Internet上另一台主机的双向通信。
设置方法:
当把主机设置成DMZ主机后,该计算机完全暴露于外网,防火墙对该主机不再起作用。外网用户访问路由器外网地址时,访问的就是192.168.0.10这台计算机。
注意:
1. 添加DMZ主机可能会给该主机带来不安全因素,因此不要轻易使用这一选项。
7.虚拟串口服务器应用 篇七
随着现代自动化控制技术的发展,计算机在工业上的广泛应用,控制局域网也深入应用到各行各业,利用远程控制技术实现异地维护便成为自动化技术的迫切要求。现行的诸多控制系统,采用单机控制方式已难以满足设备控制的要求,因为往往我们所控制的设备只是整个系统的一个基本单元,它既需要外部输入一些必要的信息,同时也需要向外部输出自身的运行参数和状态。所有这些,都要求我们采用控制网络技术,将众多设备有机地连成一体,以保证整个系统安全可靠地运行。
1、系统概述及设计原理
1.1 系统总体概述
莱钢集团炼钢厂4#连铸机的火切机控制系统采用了3套AB SLC500 PLC,由于该系统的AB SLC5/04 CPU只带有一组9针RS-232串口,而RS-232串口存在着数据可靠性、通讯距离、端口数量等多个方面的限制。例如,在工业控制等现场环境中,常会有电气噪声干扰传输线路,使用RS-232通讯时经常因外界的电气干扰而导致信号传输错误;其次,在不增加缓冲器的情况下,RS-232通讯的最大传输距离只能达到15米;还有,同1个RS-232端口只能连接1个RS-2 3 2通讯设备。而本文设计中引入了MOXA NPort 5210串口设备联网服务器,通过自制的RS-232串口转RJ45接口电缆将这3套AB SLC500 PLC连入以太网,实现了异地远程系统控制与维护。
1.2 系统总体设计
本系统主要包括AB SLC500 PLC控制系统、MOXA NPort 5210串口设备联网服务器、交换机及远程PC机或远程控制终端。其系统结构框如图1所示。
由图1可见,AB SLC500 PLC控制系统通过与MOXA NPort 5210串口设备联网服务器的连接,转接到交换机,从而连入以太网,最终实现了PLC控制系统与远程PC机或远程控制终端的通信。
2、系统具体实现
2.1 RS-232串口简介
RS-232串口是由电子工业协会所制定的异步传输标准接口,通常R S-2 3 2接口包括9个引脚(DB-9)或是25个引脚(DB-25)。在通信速率低于20kb/s时,RS-232所直接连接的最大物理距离为1 5 m(5 0英尺)。
RS-232接口(DB-9)引脚图如图2所示。
1):DCD载波检测,主要用于Modem通知计算机其处于在线状态,即Modem检测到拨号音,处于在线状态。
2):RXD此引脚用于接收外部设备送来的数据;在使用M o d e m时,你会发现R X D指示灯在闪烁,说明R X D引脚上有数据进入。
3):TXD此引脚将计算机的数据发送给外部设备;在使用Modem时,你会发现TXD指示灯在闪烁,说明计算机正在通过T X D引脚发送数据。
4):DTR数据终端就绪;当此引脚高电平时,通知Modem可以进行数据传输,计算机已经准备好。
5):GND信号地;此位不做过多解释。
6):DSR数据设备就绪;此引脚高电平时,通知计算机Modem已经准备好,可以进行数据通讯了。
7):RTS请求发送;此脚由计算机来控制,用以通知Modem马上传送数据至计算机;否则,Modem将收到的数据暂时放入缓冲区中。
8):CTS清除发送;此脚由Modem控制,用以通知计算机将欲传的数据送至M o d e m。
9):RI Modem通知计算机有呼叫进来,是否接听呼叫由计算机决定。
2.2 RS-232串口转RJ45接口介绍
首先按照标准5 6 8 B进行水晶头制作,将水晶头竖直放置,金属片面向自己,按直通线的接法将8根线放进去压好。
RS-232串口转RJ45接口的电缆连接如图3所示。
经过上面的连接后,通过引入MOXA NPort 5210系列的串口设备联网服务器实现将带有RS-232串口的ABSLC500 PLC控制系统接入工业以太网中。MOXA NPort 5210系列的串口设备联网服务器,具有一个10/100 MBPS以太网接口和2个RS-232串口接口,支持自动I P设定协议(DHCP,Boot P),以及通过Web Browser console手动设置,可让工业串口设备立即连入网络,同时具有标准的TCP/IP界面和多种操作模式。通用的接口运行模式,提供了TCPServer,TCP Client,和UDP,可确保与使用标准的网络API(Winsock,BS DSockets)的网络软件的兼容性。通过指定NPort 5210的IP地址和端口号,服务器可以直接透过Socket程序对串口设备进行数据读取和控制。
NPort Administration Suite Ver1.9是针对串口设备联网服务器的专用软件程序,为最终实现AB SLC500 PLC控制系统与远程控制PC机或远程控制终端网络连接提供了必要的驱动和参数设置,该程序使串口设备联网服务器可以随时连入TCP/IP网络。
2.3 远程通讯的实现
用做好的RS-232接口转RJ45接口电缆将SLC500 PLC与NPort 5210的Port1口连接,再将NPort 5210的1 0/100MBPS以太网接口与交换机或远程PC机连接,使SLC500 PLC控制系统接入以太网络。
通过对NPort Administration Suite Ver1.9管理程序的必要设置实现SLC500P L C的以太网通讯。利用程序管理软件中的“Search”搜索功能会搜索发现Configuration-1Nport其一端口的配置参数信息,如图4。
搜索到的端口包括Serial、Network、IP Address Report、Accessible IPs等多种参数配置,可以根据需要对其进行修改。首先在Serial的配置下对通讯速率进行修改以便提高网络的通讯效率,将Port1波特率修改为19200bytes(约19.2 kb/s)。为了实现对每套PLC的准确通信,在Netwok的配置下对每台串口设备联网服务器设置一个IP地址,其他参数根据需要进行修改。经过对3台串口设备联网服务器设置使它们共网。
在程序管理软件中打开COM Mapping,此时Port1和Port2分别被随机分配为COM 4和COM 5映射COM Port,Port1或Port2可以在1~256范围内进行名称赋值修改。
我们需要在远程PC机上安装Rockwell的通讯软件RSLinx来实现与NPort Administration Suite Ver1.9管理程序绑定。RSLinx软件是工业通讯的枢纽,它为所有的AB网络提供了完整的驱动程序,通过RS Linx软件,用户可以通过一个窗口查看所有激活的网络,也可以通过一个或多个通讯接口同时运行任何所支持的应用程序的组合。RSLinx提供最快速的OPC、DDE和C ustom C/C++的接口。RSLinx还能够为用户提供多个网络、本地工作站和DD E/OPC性能诊断工具,便于进行系统维护和故障排错。RSLinx Classic Gateway驱动程序能够完美地支持TCP/IP客户与AB控制器的连接,它也支持与远程OPC进行通讯。
在RSLinx Classic Gateway程序中,需进行通讯的驱动程序配置,如图5,使PC机与串口设备联网服务器实现连接,在可用的驱动程序类型中添加RS-232 DF1 devices驱动程序。对已添加的驱动进行配置,通讯端口选择对应的COM4口,使其与NPort 5210中设置的映射端口COM 4相对应,设备选择SLC-CH0/Micri/PanelView,波特率选择19200 bytes,其他保持默认值。启动连接后,在通信RS who中可以看到SLC-5/04 CPU,说明此时PC机与AB SLC500 PLC通讯成功,已经成功接入符合TCP/IP协议的工业以太网中。
通过如上设计,本系统实现了将3套分散的PLC控制系统,集于一个网络中,现在只需一台远程PC机即可实现对3套PLC的集中控制和维护,改变了以前需要现场一对一的维护模式。
3、结束语
通过MOXA NPort 5210串口设备联网服务器作为桥接设备,将NPort Administration Suite Ver1.9管理程序绑定到RSLinx通讯组态软件中,通讯主干网使用单/多模光纤,实现了现场采集数据的不受距离限制的传输、异地数据采集、实时生产状态监控与远程系统维护。应用效果良好,具有较强的推广价值。
摘要:文章介绍了通过MOXA NPort 5210串口联网服务器作为桥接设备,将AB SLC500的RS-232串口15米的限定范围进行无限拓展,从而实现了异地数据采集、实时生产状态监控与远程系统维护。
关键词:MOXA NPort 5210,远程通讯,以太网
参考文献
[1](日)宫崎诚一著,陆玉库,于翼译.微型计算机数据传输基础与实践.北京:人民邮电出版社.1990
[2]胡学林.可编程序控制器教程(提高篇).北京:电子工业出版社.2005
8.虚拟串口服务器应用 篇八
HP ProLiant DL580 G5 服务器基于最新的Intel Xeon六核处理器7400系列,是Intel发布7400系列高端服务器处理器后首批推出的服务器产品,具有极高的性能和高可用性。采用了全新设计的HP ProLiant DL580 G5,能够提供非常卓越的灵活性和服务特性,机箱高度仅为 4U,适用于数据密集型、关键业务的企业级应用,例如虚拟环境下的数据库、商业智能、ERP和大规模邮件和消息平台等应用。
为关键业务数据中心精心设计
HP ProLiant DL580 G5的设计特色包括:
?誗高性能:六核处理器使得内核数量加倍,外形小巧的串口SCSI(SAS),高性能I/O,以及256 GB的最大内存容量(采用8GB DIMM)
?誗虚拟化:最多32个DIMM插槽;2个硬盘仓,可容纳16块硬盘;11个扩展槽(8个标配,3个可选)
?誗灵活性:机架式或塔式;半高磁带架;可对处理器、内存、硬盘、控制器等进行升级。新的四插槽、六核英特尔至强处理器系统可以提供最多24核,这使得HP可以为关键业务应用提供更高标准的可扩展能力、虚拟化性能。
为了满足未来的虚拟化和节能需求,HP ProLiant DL580 G5有了以下管理软件工具:
?誗HP ProLiant Essentials Virtual Machine Management Pack(VMM)为物理的服务器资源及虚拟机提供了中央管理和控制,这样就减少了对单独的VMM控制台的需求
?誗HP Insight Power Manager可以使得客户设定一个特定的能耗瓦数上限,这样就可以在增加机架内服务器数量的同时减少总体成本。
虚拟化性能在机架式服务器上的完美体现
HP ProLiant DL580G5具有最高达256GB的内存,配合Intel 7400系列处理器内嵌的Intel VT技术、大容量的cache和高速前端总线,能够使虚拟化环境中的巨量线程顺畅运行;此外,其提供的多达11个I/O通道,使得该服务器具备极大的扩展能力,能够为虚拟化平台提供更多的硬件资源;再者,DL580G5能够提供高达2.33T的内部存储容量,对于虚拟平台所需运行的海量数据和大容量程序都极为适用。
与此同时,HP也发布了新的ID VSE(Insight Dynamic VSE)虚拟管理环境软件,将虚拟服务器具有的优势扩充到物理服务器环境,在数据中心使用逻辑服务器的独特概念管理物理服务器和虚拟服务器,并具备实时资源规划功能,帮助用户在数据中心快速实现服务器整合,动态规划、优化和自动化,从而提高数据中心服务质量,降低IT运营成本,加快实施IT变更,并最终提高企业业务灵活性。
保持业界领先地位
HP ProLiant DL580 G5继续保持ProLiant性能领先的优势,相当于两台前代的DL580,并以诸多新特性使其保持业界领先地位。
?誗性能方面:采用英特尔至强64位六核处理器,2x4MB的高速缓存;1066MHz双独立前端总线;667MHz DDR-2内存,支持高达256GB内存;集成Smart Array P400 阵列控制器,有256MB缓存和512MB带有电池保护功能的高速缓存多种配置(BBWC);内置支持多达16个SAS或SATA硬盘。
?誗管理性方面:全新的服务器自动修复功能ASR,ROM设置工具(RBSU),惠普统一管理平台(SIM),系统健康状态指示灯以及设备识别灯UID;全新的机箱设计,可直接从服务器前方拆卸处理器、内存、硬盘,以及从后方拆卸电源模块;集成ILO2远程管理系统。
?誗全新机箱设计:前置的 USB 2.0 端口,前置显示器端口;集成双端口的千兆多功能以太网卡;无需工具即可安装的通用机柜导轨;非常灵活的电缆管理导向臂实现电缆安装管理,以及快速安装锁紧释放把手,用于快安装和拆卸机柜服务器。
【虚拟串口服务器应用】推荐阅读:
虚拟装配技术的应用06-21
虚拟机技术与应用10-09
虚拟仪器的发展与应用09-27
虚拟仪器的应用及其发展前景10-16
虚拟现实技术在煤矿安全中的应用研究11-04
虚拟互动类06-16
虚拟语气教案107-18
虚拟股权激励计划08-18
虚拟语气用法小结09-17
虚拟语气的运用10-16